OpenAI afirma que 10% da população mundial atualmente usa ChatGPT semanalmente. Em um relatório publicado por na segunda-feira, a OpenAI destaca como está lidando com usuários que apresentam sinais de sofrimento psychological e a empresa afirma que 0,07% de seus usuários semanais apresentam sinais de “emergências de saúde psychological relacionadas a psicose ou mania”, 0,15% expressaram risco de “automutilação ou suicídio” e 0,15% mostraram sinais de “dependência emocional da IA”. Isso totaliza quase três milhões de pessoas.
Em seu esforço contínuo para mostrar que está tentando melhorar as proteções para usuários em perigo, a OpenAI compartilhado os detalhes de seu trabalho com 170 especialistas em saúde psychological para melhorar a forma como o ChatGPT responde às pessoas que precisam de apoio. A empresa afirma ter reduzido “as respostas que ficam aquém do comportamento desejado em 65-80%” e agora é melhor em desescalar conversas e orientar as pessoas para atendimento profissional e linhas diretas de crise quando relevante. Também adicionou mais “lembretes gentis” para fazer pausas durante sessões longas. Obviamente, ele não pode fazer com que o usuário entre em contato com o suporte nem bloqueará o acesso para forçar uma interrupção.
A empresa também divulgou dados sobre a frequência com que as pessoas enfrentam problemas de saúde psychological enquanto se comunicam com o ChatGPT, aparentemente para destacar o quão pequena é a porcentagem do uso geral que essas conversas representam. De acordo com as métricas da empresa, “0,07% dos usuários ativos em uma determinada semana e 0,01% das mensagens indicam possíveis sinais de emergências de saúde psychological relacionadas a psicose ou mania”. Isso representa cerca de 560 mil pessoas por semana, presumindo que a contagem de usuários da própria empresa esteja correta. A empresa também reivindicado lidar semanalmente com cerca de 18 bilhões de mensagens para ChatGPT, de modo que 0,01% equivale a 1,8 milhão de mensagens de psicose ou mania.
Uma das outras principais áreas de ênfase da empresa em termos de segurança foi melhorar suas respostas aos usuários que expressavam desejos de automutilação ou suicídio. De acordo com os dados da OpenAI, cerca de 0,15% dos usuários por semana expressam “indicadores explícitos de potencial planejamento ou intenção suicida”, representando 0,05% das mensagens. Isso equivaleria a cerca de 1,2 milhão de pessoas e nove milhões de mensagens.
A última área em que a empresa se concentrou ao procurar melhorar as suas respostas às questões de saúde psychological foi a confiança emocional na IA. A OpenAI estimou que cerca de 0,15% dos usuários e 0,03% das mensagens por semana “indicam níveis potencialmente elevados de apego emocional ao ChatGPT”. São 1,2 milhão de pessoas e 5,4 milhões de mensagens.
A OpenAI tomou medidas nos últimos meses para tentar fornecer melhores proteções para proteger contra o potencial que seu chatbot permite ou piora os desafios de saúde psychological de uma pessoa, após a morte de um jovem de 16 anos que, de acordo com um processo por homicídio culposo dos pais do falecido adolescente, pediu conselhos ao ChatGPT sobre como amarrar um laço antes de tirar a própria vida. Mas vale a pena questionar a sinceridade disso, visto que ao mesmo tempo em que a empresa anunciou novos bate-papos mais restritivos para usuários menores de idade, também anunciou que permitiria que os adultos dessem mais personalidade ao ChatGPT e se envolvessem em coisas como a produção de erotismo – recursos que aparentemente aumentariam o apego emocional de uma pessoa e a confiança no chatbot.











