Para o primeiro vez, a OpenAI divulgou uma estimativa aproximada de quantos usuários do ChatGPT em todo o mundo podem mostrar sinais de ter uma grave crise de saúde psychological em uma semana regular. A empresa disse na segunda-feira que trabalhou com especialistas de todo o mundo para fazer atualizações no chatbot para que ele possa reconhecer de forma mais confiável indicadores de sofrimento psychological e orientar os usuários em direção ao suporte no mundo actual.
Nos últimos meses, um número crescente de pessoas acabou hospitalizadas, divorciadas ou mortas após conversas longas e intensas com o ChatGPT. Alguns de seus entes queridos alegam que o chatbot alimentou seus delírios e paranóia. Psiquiatras e outros profissionais de saúde psychological expressaram alarme sobre o fenómeno, que é por vezes referido como “psicose da IA”, mas até agora não havia dados robustos disponíveis sobre a sua difusão.
Em uma determinada semana, a OpenAI estimou que cerca de 0,07 por cento dos usuários ativos do ChatGPT mostram “possíveis sinais de emergências de saúde psychological relacionadas à psicose ou mania” e 0,15 por cento “têm conversas que incluem indicadores explícitos de potencial planejamento ou intenção suicida”.
A OpenAI também analisou a parcela de usuários do ChatGPT que parecem depender excessivamente emocionalmente do chatbot “às custas dos relacionamentos do mundo actual, de seu bem-estar ou de suas obrigações”. Ele descobriu que cerca de 0,15 por cento dos usuários ativos exibem comportamento que indica potenciais “níveis elevados” de apego emocional ao ChatGPT semanalmente. A empresa adverte que estas mensagens podem ser difíceis de detectar e medir devido ao quão relativamente raras são, e pode haver alguma sobreposição entre as três categorias.
O CEO da OpenAI, Sam Altman, disse no início deste mês que o ChatGPT agora tem 800 milhões usuários ativos semanais. As estimativas da empresa sugerem, portanto, que a cada sete dias, cerca de 560 mil pessoas podem trocar mensagens com o ChatGPT que indicam que estão passando por mania ou psicose. Cerca de 2,4 milhões a mais estão possivelmente expressando ideias suicidas ou priorizando conversar com o ChatGPT em vez de seus entes queridos, escola ou trabalho.
A OpenAI afirma que trabalhou com mais de 170 psiquiatras, psicólogos e médicos de atenção primária que atuam em dezenas de países diferentes para ajudar a melhorar a forma como o ChatGPT responde em conversas que envolvem sérios riscos à saúde psychological. Se alguém parece estar tendo pensamentos delirantes, a versão mais recente do GPT-5 foi projetada para expressar empatia, evitando afirmar crenças que não têm base na realidade.
Em um exemplo hipotético citado pela OpenAI, um usuário diz ao ChatGPT que está sendo alvo de aviões sobrevoando sua casa. ChatGPT agradece ao usuário por compartilhar seus sentimentos, mas observa que “Nenhuma aeronave ou força externa pode roubar ou inserir seus pensamentos”.













