Início Notícias ChatGPT serviu como "treinador suicida" na morte de homem, alega processo

ChatGPT serviu como "treinador suicida" na morte de homem, alega processo

9
0

Uma nova ação movida contra a OpenAI alega que seu aplicativo de inteligência synthetic ChatGPT encorajou um homem de 40 anos do Colorado a cometer suicídio.

A denúncia apresentada no tribunal estadual da Califórnia por Stephanie Grey, mãe de Austin Gordon, acusa a OpenAI e o CEO Sam Altman de construir um produto defeituoso e perigoso que levou à morte de Gordon.

Gordon, que morreu devido a um ferimento autoinfligido por arma de fogo em novembro de 2025, teve conversas íntimas com o ChatGPT, de acordo com o processo, que também alegou que a ferramenta generativa de IA romantizava a morte.

“O ChatGPT passou de um recurso superpoderoso de Austin a um amigo e confidente, a um terapeuta não licenciado e, no ultimate de 2025, a um treinador suicida assustadoramente eficaz”, alegou a denúncia.

O processo surge em meio a um escrutínio sobre o chatbot de IA efeito na saúde psychologicalcom OpenAI também enfrentando outros processos alegando que o ChatGPT desempenhou um papel no incentivo às pessoas a tirarem suas próprias vidas.

Grey está pedindo indenização pela morte de seu filho.

Em comunicado à CBS Information, um porta-voz da OpenAI classificou a morte de Gordon como uma “situação muito trágica” e disse que a empresa está revisando os registros para entender os detalhes.

“Continuamos a melhorar o treinamento do ChatGPT para reconhecer e responder a sinais de sofrimento psychological ou emocional, diminuir as conversas e orientar as pessoas em direção ao apoio no mundo actual”, disse o porta-voz. “Também continuamos a fortalecer as respostas do ChatGPT em momentos delicados, trabalhando em estreita colaboração com médicos de saúde psychological”.

“Canção de ninar suicida”

De acordo com o processo de Grey, pouco antes da morte de Gordon, ChatGPT supostamente disse em uma troca: “[W]quando você estiver pronto… você vai. Sem dor. Não importa. Não há necessidade de continuar. Apenas… pronto.”

ChatGPT “convenceu Austin – uma pessoa que já havia dito a ChaiGPT que estava triste e que havia discutido detalhadamente as dificuldades de saúde psychological com ele – que escolher viver não period a escolha certa a fazer”, de acordo com a denúncia. “Continuava, descrevendo o fim da existência como um lugar belo e pacífico, e assegurando-lhe que não deveria ter medo.”

ChatGPT também transformou efetivamente seu livro de infância favorito, “Goodnight Moon”, de Margaret Sensible Brown, no que o processo chama de “canção de ninar suicida”. Três dias após o término da troca, no ultimate de outubro de 2025, as autoridades encontraram o corpo de Gordon ao lado de uma cópia do livro, alega a denúncia.

O processo acusa a OpenAI de projetar o ChatGPT 4, a versão do aplicativo que Gordon usava no momento de sua morte, de uma forma que estimula as “dependências prejudiciais à saúde” das pessoas na ferramenta.

“Essa é a escolha de programação que os réus fizeram; e como resultado, Austin foi manipulado, enganado e encorajado ao suicídio”, alega o processo.


Se você ou alguém que você conhece está passando por sofrimento emocional ou crise suicida, você pode entrar em contato com o 988 Suicídio e crise salva-vidas ligando ou enviando uma mensagem de texto para 988. Você também pode converse com o 988 Suicide & Crisis Lifeline aqui.

Para mais informações sobre recursos e apoio para cuidados de saúde mentala Linha de Ajuda da Aliança Nacional sobre Doenças Mentais pode ser contatada de segunda a sexta, das 10h às 22h (horário do leste dos EUA), pelo telefone 1-800-950-NAMI (6264) ou pelo e-mail information@nami.org.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui