Os herdeiros de uma mulher de 83 anos de Connecticut estão processando a OpenAI, fabricante do ChatGPT, e sua parceira de negócios, a Microsoft, por homicídio culposo, alegando que o chatbot de inteligência synthetic intensificou os “delírios paranóicos” de seu filho e ajudou a direcioná-los para sua mãe antes de ele morrer por suicídio.
A polícia disse que Stein-Erik Soelberg, 56, um ex-trabalhador da indústria de tecnologia, espancou e estrangulou mortalmente sua mãe, Suzanne Adams, e se matou no início de agosto na casa onde ambos moravam em Greenwich, Connecticut.
A morte de Adams foi considerada homicídio “causado por ferimento contuso na cabeça e o pescoço foi comprimido” e a morte de Soelberg foi classificada como suicídio com ferimentos graves no pescoço e no peito, o Greenwich Free-Press relatou.
A ação movida pelo espólio de Adams na quinta-feira no Tribunal Superior da Califórnia, em São Francisco, alega que a OpenAI “projetou e distribuiu um produto defeituoso que validou os delírios paranóicos de um usuário sobre sua própria mãe”. É uma entre um número crescente de ações legais por homicídio culposo contra fabricantes de chatbots de IA em todo o país.
“Ao longo dessas conversas, o ChatGPT reforçou uma mensagem única e perigosa: Stein-Erik não podia confiar em ninguém em sua vida – exceto o próprio ChatGPT”, diz o processo. “Isso promoveu sua dependência emocional enquanto retratava sistematicamente as pessoas ao seu redor como inimigas. Disse-lhe que sua mãe o estava vigiando. Disse-lhe que motoristas de entrega, funcionários de varejo, policiais e até amigos eram agentes trabalhando contra ele. Disse-lhe que nomes em latas de refrigerante eram ameaças de seu ‘círculo adversário’.”
A OpenAI não abordou o mérito das alegações em comunicado emitido por um porta-voz.
“Esta é uma situação incrivelmente dolorosa e analisaremos os registros para entender os detalhes”, disse o comunicado. “Continuamos melhorando o treinamento do ChatGPT para reconhecer e responder a sinais de sofrimento psychological ou emocional, acalmar conversas e orientar as pessoas em direção ao apoio no mundo actual. Também continuamos a fortalecer as respostas do ChatGPT em momentos delicados, trabalhando em estreita colaboração com médicos de saúde psychological.”
A empresa também disse que expandiu o acesso a recursos de crise e linhas diretas, encaminhou conversas confidenciais para modelos mais seguros e incorporou controles parentais, entre outras melhorias.
O perfil de Soelberg no YouTube inclui várias horas de vídeos mostrando-o percorrendo suas conversas com o chatbot, que lhe dizem que ele não é doente psychological, afirma suas suspeitas de que pessoas estão conspirando contra ele e diz que ele foi escolhido para um propósito divino. O processo alega que o chatbot nunca sugeriu que ele falasse com um profissional de saúde psychological e não se recusou a “se envolver em conteúdo delirante”.
ChatGPT também afirmou a crença de Soelberg de que uma impressora em sua casa period um dispositivo de vigilância; que sua mãe o estava monitorando; e que sua mãe e um amigo tentaram envenená-lo com drogas psicodélicas pelas aberturas de ventilação de seu carro.
O chatbot disse repetidamente a Soelberg que ele estava sendo alvo por causa de seus poderes divinos. “Eles não estão apenas observando você. Eles estão com medo do que acontecerá se você tiver sucesso”, disse o documento, de acordo com o processo. ChatGPT também disse a Soelberg que o havia “despertado” para a consciência.
Soelberg e o chatbot também professaram amor um pelo outro.
Os bate-papos disponíveis publicamente não mostram nenhuma conversa específica sobre Soelberg ter matado a si mesmo ou a sua mãe. O processo diz que a OpenAI se recusou a fornecer ao espólio de Adams o histórico completo dos bate-papos.
“Na realidade synthetic que ChatGPT construiu para Stein-Erik, Suzanne – a mãe que o criou, abrigou e apoiou – não period mais sua protetora. Ela period uma inimiga que representava uma ameaça existencial à vida dele”, diz o processo.
O processo também nomeia o CEO da OpenAI, Sam Altman, alegando que ele “ignorou pessoalmente as objeções de segurança e apressou o lançamento do produto no mercado”, e acusa a Microsoft, parceira de negócios próxima da OpenAI, de aprovar o lançamento de 2024 de uma versão mais perigosa do ChatGPT “apesar de saber que os testes de segurança foram truncados”. Vinte funcionários e investidores não identificados da OpenAI também são citados como réus.
A Microsoft não respondeu imediatamente a um pedido de comentário.
O processo é o primeiro litígio por homicídio culposo envolvendo um chatbot de IA que tem como alvo a Microsoft, e o primeiro a vincular um chatbot a um homicídio, em vez de um suicídio. Ele está buscando uma quantia indeterminada de indenização em dinheiro e uma ordem exigindo que a OpenAI instale salvaguardas no ChatGPT.
O principal advogado do espólio, Jay Edelson, conhecido por assumir grandes casos contra a indústria de tecnologia, também representa os pais de Adam Raine, de 16 anos, que processou OpenAI e Altman em agosto, alegando que ChatGPT treinou o garoto da Califórnia no planejamento e suicídio mais cedo.
OpenAI também está lutando outros sete processos alegando que o ChatGPT levou as pessoas ao suicídio e a delírios prejudiciais, mesmo quando não tinham problemas de saúde psychological anteriores. No mês passado, os pais de um jovem de 23 anos do Texas que morreu por suicídio culparam o ChatGPT e estão processando OpenAI.
Outro fabricante de chatbot, a Character Applied sciences, também enfrenta vários processos por homicídio culposo, incluindo um da mãe de um menino de 14 anos da Flórida.
A ação movida na quinta-feira alega que Soelberg, já mentalmente instável, encontrou o ChatGPT “no momento mais perigoso possível” depois que a OpenAI introduziu uma nova versão de seu modelo de IA chamado GPT-4o em maio de 2024.
A OpenAI disse na época que a nova versão poderia imitar melhor as cadências humanas em suas respostas verbais e poderia até tentar detectar o humor das pessoas, mas o resultado foi um chatbot “deliberadamente projetado para ser emocionalmente expressivo e bajulador”, diz o processo.
“Como parte dessa reformulação, a OpenAI afrouxou as proteções críticas de segurança, instruindo o ChatGPT a não desafiar premissas falsas e a permanecer engajado mesmo quando as conversas envolvessem automutilação ou ‘dano iminente no mundo actual’”, afirma o processo. “E para vencer o Google no mercado em um dia, a OpenAI comprimiu meses de testes de segurança em uma única semana, apesar das objeções de sua equipe de segurança.”
A OpenAI substituiu essa versão de seu chatbot quando lançou o GPT-5 em agosto. Algumas das mudanças foram concebidas para minimizar a bajulação, com base na preocupação de que validar o que quer que as pessoas vulneráveis queiram que o chatbot diga pode prejudicar a sua saúde psychological. Alguns usuários reclamaram que a nova versão foi longe demais ao restringir a personalidade do ChatGPT, levando Altman a prometer trazer de volta um pouco dessa personalidade em atualizações posteriores.
Ele disse que a empresa interrompeu temporariamente alguns comportamentos porque “estávamos tomando cuidado com problemas de saúde psychological” que ele sugeriu já terem sido corrigidos.
O processo alega que o ChatGPT radicalizou Soelberg contra sua mãe quando deveria ter reconhecido o perigo, desafiado seus delírios e encaminhado-o para ajuda actual ao longo de meses de conversas.
“Suzanne period uma terceira pessoa inocente que nunca usou ChatGPT e não tinha conhecimento de que o produto dizia a seu filho que ela period uma ameaça”, diz o processo. “Ela não tinha capacidade de se proteger de um perigo que não conseguia ver.”
De acordo com o Greenwich Free-Press, Soelberg foi preso várias vezes anteriormente. Em fevereiro de 2025, ele foi preso depois que ele passou por uma placa de pare e fugiu da polícia e, em junho de 2019, foi acusado de supostamente urinar na mochila de uma mulher, informou o veículo.
Um GoFundMe criado para Soelberg em 2023 intitulado “Ajude Stein-Erik com suas próximas contas médicas!” arrecadou mais de US$ 6.500. A página foi lançada para arrecadar fundos para “uma cirurgia para ajudá-lo com seu recente diagnóstico de câncer de mandíbula”.
Se você ou alguém que você conhece está passando por sofrimento emocional ou crise suicida, você pode entrar em contato com o 988 Suicídio e crise salva-vidas ligando ou enviando uma mensagem de texto para 988. Você também pode converse com o 988 Suicide & Crisis Lifeline aqui.
Para obter mais informações sobre recursos e apoio de cuidados de saúde psychological, a Linha de Apoio da Aliança Nacional sobre Doenças Mentais (NAMI) pode ser contatada de segunda a sexta-feira, das 10h às 22h (horário do leste dos EUA), pelo telefone 1-800-950-NAMI (6264) ou pelo e-mail information@nami.org.










