Siga ZDNET: Adicione-nos como fonte preferencial no Google.
Principais conclusões da ZDNET
- A OpenAI está reduzindo comportamentos indesejáveis em seu chatbot.
- Houve uma redução de 65% nas respostas insatisfatórias.
- As atualizações visam não incentivar os usuários em crise.
Após ligações para demonstrar publicamente como a empresa está criando uma experiência mais segura para quem vivencia episódios de saúde psychological, OpenAI anunciou melhorias ao seu modelo mais recente, GPT-5, na segunda-feira.
Além disso: até mesmo o CEO da OpenAI, Sam Altman, acha que você não deve confiar na IA para terapia
A empresa afirma que essas melhorias criam um modelo que pode responder de forma mais confiável a pessoas que apresentam sinais de mania, psicose, automutilação, ideação suicida e apego emocional.
Como resultado, as respostas não conformes do ChatGPT – aquelas que afastam os usuários da realidade ou pioram sua condição psychological – diminuíram sob as novas diretrizes da OpenAI, disse a empresa na postagem do weblog. A OpenAI estimou que as atualizações do GPT-5 “reduziram a taxa de respostas que não atendem totalmente ao comportamento desejado” em 65% nas conversas com usuários sobre questões de saúde psychological.
As atualizações
A OpenAI disse que trabalhou com mais de 170 especialistas em saúde psychological para reconhecer, responder cuidadosamente e fornecer orientação no mundo actual para usuários em perigo. Durante um transmissão ao vivo sobre a recente reestruturação e planos futuros da OpenAI na terça-feira, um membro da audiência perguntou ao CEO Sam Altman sobre a lista de especialistas – Altman não tinha certeza de quanto dessa informação ele poderia compartilhar, mas observou que “mais transparência é uma coisa boa”.
Além disso: o último relatório de segurança de IA do Google explora a IA além do controle humano
(Divulgação: Ziff Davis, controladora da CNET, entrou com uma ação judicial contra a OpenAI em abril, alegando que ela violou os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.)
Os avanços da OpenAI podem impedir que um usuário cresça ainda mais enquanto usa o ChatGPT – o que se alinha com os objetivos da OpenAI de que seu chatbot respeite os relacionamentos dos usuários, os mantenha na realidade e longe de crenças infundadas, responda com segurança a sinais de ilusão ou mania e perceba sinais indiretos de automutilação ou risco de suicídio, explicou a empresa.
A OpenAI também expôs seu processo de como está melhorando as respostas do modelo. Isso inclui mapear danos potenciais, medi-los e analisá-los para detectar, prever e compreender os riscos, coordenar a validação com especialistas, treinar modelos retroativamente e continuar a medi-los para maior mitigação de riscos. A empresa disse que então se baseará em suas taxonomias, ou guias do usuário, que descrevem o comportamento splendid ou falho durante conversas delicadas.
Além disso: a FTC examina OpenAI, Meta e outros sobre segurança de companheiros de IA para crianças
“Isso nos ajuda a ensinar o modelo a responder de forma mais adequada e a monitorar seu desempenho antes e depois da implantação”, escreveu OpenAI.
IA e saúde psychological
A OpenAI disse no weblog que as conversas sobre saúde psychological que desencadeiam preocupações de segurança no ChatGPT são incomuns. Ainda assim, vários incidentes de alto perfil colocaram a OpenAI e empresas de chatbot semelhantes numa situação difícil. Em abril passado, um adolescente morreu por suicídio depois de conversar com ChatGPT sobre suas ideias; sua família agora está processando a OpenAI. Como resultado, a empresa lançou novos controles parentais para seu chatbot.
O incidente ilustra as armadilhas da IA ao abordar conversas de usuários relacionadas à saúde psychological. O próprio Character.ai é alvo de um processo semelhante, e um estudo de abril de Stanford explicou exatamente por que os chatbots são substitutos arriscados para terapeutas.
Além disso: a FTC examina OpenAI, Meta e outros sobre segurança de companheiros de IA para crianças
Neste verão, Altman disse que não aconselhava o uso de chatbots para terapia; no entanto, durante a transmissão ao vivo de terça-feira, ele incentivou os usuários a se envolverem com o ChatGPT em tópicos de conversas pessoais e para obter apoio emocional, dizendo: “É para isso que estamos aqui”.
Quer mais histórias sobre IA? Inscreva-se no AI Leaderboardnosso boletim informativo semanal.
As atualizações do GPT-5 seguem um recente artigo do New York Times por um ex-pesquisador da OpenAI que exigiu que a OpenAI não apenas melhorasse a forma como seu chatbot responde às crises de saúde psychological, mas também mostrasse como está fazendo isso.
Além disso: Como usar o ChatGPT livremente sem abrir mão da sua privacidade – com um truque simples
“A IA está se tornando cada vez mais uma parte dominante de nossas vidas, assim como os riscos da tecnologia que ameaçam a vida dos usuários”, escreveu Steven Adler. “As pessoas merecem mais do que apenas a palavra da empresa de que abordou questões de segurança. Em outras palavras: show isso.”












