Estima-se que 0,15% dos 800 milhões de usuários semanais do chatbot apresentam indicadores de planejamento suicida, segundo a empresa
OpenAI anunciou uma nova atualização de segurança para seu common modelo ChatGPT depois que uma análise interna revelou que mais de um milhão de usuários admitiram tendências suicidas no chatbot. As mudanças têm como objetivo melhorar a capacidade da IA de reconhecer e responder adequadamente ao sofrimento.
Em comunicado divulgado na segunda-feira, a empresa revelou que cerca de 0,15% dos usuários semanais do ChatGPT se envolveram em conversas que incluem “indicadores explícitos de potencial planejamento ou intenção suicida.” Outros 0,05% das mensagens também continham “indicadores explícitos ou implícitos de ideação ou intenção suicida.”
No início deste mês, Sam Altman, CEO da OpenAI, afirmou que o ChatGPT tem mais de 800 milhões de usuários ativos semanais, o que significa que, de acordo com os últimos números da empresa, mais de 1,2 milhão de pessoas discutiram suicídio com o chatbot e cerca de 400.000 exibiram sinais de intenção suicida.
A empresa afirmou ainda que cerca de 0,07% (560 mil) dos seus usuários semanais e 0,01% (80 mil) das mensagens indicam “possíveis sinais de emergências de saúde psychological relacionadas a psicose ou mania.” Observou ainda que vários usuários passaram a depender emocionalmente do ChatGPT, com cerca de 0,15% (1,2 milhão) de usuários ativos exibindo um comportamento que indica “níveis elevados” de apego emocional ao chatbot.
A OpenAI anunciou que fez parceria com dezenas de especialistas em saúde psychological de todo o mundo para atualizar o chatbot para que possa reconhecer sinais de sofrimento psychological de forma mais confiável, fornecer melhores respostas e orientar os usuários para ajuda no mundo actual.
Em conversas relacionadas a crenças delirantes, a empresa disse que está ensinando o ChatGPT a responder “com segurança”, e “empaticamente”, evitando afirmar crenças infundadas.
O anúncio da empresa ocorre em meio a preocupações crescentes sobre o uso crescente de chatbots de IA, como o ChatGPT, e o efeito que eles têm na saúde psychological das pessoas. Psiquiatras e outros profissionais médicos expressaram alarme sobre uma tendência emergente de utilizadores desenvolverem delírios perigosos e pensamentos paranóicos após conversas prolongadas com chatbots de IA, que tendem a afirmar e reforçar as crenças dos utilizadores. O fenômeno foi apelidado por alguns como “Psicose de IA.”
Você pode compartilhar esta história nas redes sociais:









