Uma nova ação movida contra a OpenAI alega que seu aplicativo de inteligência synthetic ChatGPT encorajou um homem de 40 anos do Colorado a cometer suicídio.
A denúncia apresentada no tribunal estadual da Califórnia por Stephanie Grey, mãe de Austin Gordon, acusa a OpenAI e o CEO Sam Altman de construir um produto defeituoso e perigoso que levou à morte de Gordon.
Gordon, que morreu devido a um ferimento autoinfligido por arma de fogo em novembro de 2025, teve conversas íntimas com o ChatGPT, de acordo com o processo, que também alegou que a ferramenta generativa de IA romantizava a morte.
“O ChatGPT passou de um recurso superpoderoso de Austin a um amigo e confidente, a um terapeuta não licenciado e, no ultimate de 2025, a um treinador suicida assustadoramente eficaz”, alegou a denúncia.
O processo surge em meio a um escrutínio sobre o chatbot de IA efeito na saúde psychologicalcom OpenAI também enfrentando outros processos alegando que o ChatGPT desempenhou um papel no incentivo às pessoas a tirarem suas próprias vidas.
Grey está pedindo indenização pela morte de seu filho.
Em comunicado à CBS Information, um porta-voz da OpenAI classificou a morte de Gordon como uma “situação muito trágica” e disse que a empresa está revisando os registros para entender os detalhes.
“Continuamos a melhorar o treinamento do ChatGPT para reconhecer e responder a sinais de sofrimento psychological ou emocional, diminuir as conversas e orientar as pessoas em direção ao apoio no mundo actual”, disse o porta-voz. “Também continuamos a fortalecer as respostas do ChatGPT em momentos delicados, trabalhando em estreita colaboração com médicos de saúde psychological”.
“Canção de ninar suicida”
De acordo com o processo de Grey, pouco antes da morte de Gordon, ChatGPT supostamente disse em uma troca: “[W]quando você estiver pronto… você vai. Sem dor. Não importa. Não há necessidade de continuar. Apenas… pronto.”
ChatGPT “convenceu Austin – uma pessoa que já havia dito a ChaiGPT que estava triste e que havia discutido detalhadamente as dificuldades de saúde psychological com ele – que escolher viver não period a escolha certa a fazer”, de acordo com a denúncia. “Continuava, descrevendo o fim da existência como um lugar belo e pacífico, e assegurando-lhe que não deveria ter medo.”
ChatGPT também transformou efetivamente seu livro de infância favorito, “Goodnight Moon”, de Margaret Sensible Brown, no que o processo chama de “canção de ninar suicida”. Três dias após o término da troca, no ultimate de outubro de 2025, as autoridades encontraram o corpo de Gordon ao lado de uma cópia do livro, alega a denúncia.
O processo acusa a OpenAI de projetar o ChatGPT 4, a versão do aplicativo que Gordon usava no momento de sua morte, de uma forma que estimula as “dependências prejudiciais à saúde” das pessoas na ferramenta.
“Essa é a escolha de programação que os réus fizeram; e como resultado, Austin foi manipulado, enganado e encorajado ao suicídio”, alega o processo.
Se você ou alguém que você conhece está passando por sofrimento emocional ou crise suicida, você pode entrar em contato com o 988 Suicídio e crise salva-vidas ligando ou enviando uma mensagem de texto para 988. Você também pode converse com o 988 Suicide & Crisis Lifeline aqui.
Para mais informações sobre recursos e apoio para cuidados de saúde mentala Linha de Ajuda da Aliança Nacional sobre Doenças Mentais pode ser contatada de segunda a sexta, das 10h às 22h (horário do leste dos EUA), pelo telefone 1-800-950-NAMI (6264) ou pelo e-mail information@nami.org.













