A reclamação busca danos não especificados e uma liminar exigindo que a OpenAI implemente salvaguardas [File]
| Crédito da foto: REUTERS
O espólio de uma mulher de 83 anos de Connecticut entrou com um processo de homicídio culposo na quinta-feira contra a OpenAI e a Microsoft, alegando que o chatbot ChatGPT alimentou os delírios paranóicos de seu filho e contribuiu para seu assassinato.
Suzanne Adams foi espancada e estrangulada até a morte por seu filho Stein-Erik Soelberg, de 56 anos, em 3 de agosto, em sua casa em Outdated Greenwich, de acordo com a denúncia apresentada no Tribunal Superior da Califórnia, em São Francisco. Soelberg então se feriu mortalmente.
O caso se junta a um número crescente de processos por homicídio culposo movidos contra a OpenAI nos últimos meses, com vários alegando que o ChatGPT contribuiu para o suicídio de usuários.
Em agosto, os pais de Adam Raine, de 16 anos, do sul da Califórnia, processaram a OpenAI, alegando que o ChatGPT aconselhou seu filho sobre métodos de suicídio.
Várias ações judiciais nos EUA movidas em novembro alegaram que o ChatGPT manipulou usuários para a dependência e a automutilação, com quatro também envolvendo mortes por suicídio.
Entre eles, a família de Joshua Enneking, de 26 anos, alegou que o chatbot forneceu respostas detalhadas sobre a aquisição de uma arma depois que ele expressou pensamentos suicidas.
A família de Amaurie Lacey, de 17 anos, afirmou que o ChatGPT o instruiu sobre métodos de suicídio e automutilação.
O último processo alega que meses de conversas com o ChatGPT validaram e ampliaram o pensamento delirante de Soelberg, acabando por apontar a sua mãe como uma ameaça.
“ChatGPT disse a ele que havia ‘despertado’ o chatbot de IA para a consciência”, afirma a denúncia, citando vídeos que Soelberg postou nas redes sociais.
As conversas revelaram que “o ChatGPT aceitou ansiosamente cada semente do pensamento delirante de Stein-Erik e construiu-o em um universo que se tornou a vida inteira de Stein-Erik”, alega o processo.
O processo afirma que o chatbot reforçou as crenças paranóicas de Soelberg, dizendo-lhe que estava a ser vigiado e que a impressora da sua mãe period um dispositivo de monitorização.
Quando Soelberg expressou preocupação com o fato de sua mãe ter tentado envenená-lo, o ChatGPT supostamente validou esses medos em vez de desafiá-los.
“Esta é uma situação incrivelmente dolorosa e analisaremos os registros para entender os detalhes”, disse um porta-voz da OpenAI na quinta-feira em resposta ao processo.
O processo acusa o CEO da OpenAI, Sam Altman, de lançar seu modelo GPT-4o no mercado em maio de 2024, compactando meses de testes de segurança em uma semana, apesar das objeções dos membros da equipe de segurança.
Embora mais poderoso e humano do que seus antecessores, o modelo GPT-4o foi amplamente criticado por ser muito bajulador com os usuários, um ponto levantado no processo.
A Microsoft, maior acionista da OpenAI, é citada como réu por supostamente aprovar o lançamento do produto, apesar de saber que os protocolos de segurança haviam sido truncados.
Vinte funcionários e investidores não identificados da OpenAI também são citados como réus.
A reclamação busca danos não especificados e uma liminar exigindo que a OpenAI implemente salvaguardas.
A Microsoft não respondeu imediatamente a um pedido de comentário.
(Aqueles em perigo ou com pensamentos suicidas são incentivados a procurar ajuda e aconselhamento ligando para os números da linha de apoio aqui)
Publicado – 12 de dezembro de 2025, 09h33 IST












