Início Notícias ChatGPT compartilha dados sobre quantos usuários apresentam psicose ou pensamentos suicidas

ChatGPT compartilha dados sobre quantos usuários apresentam psicose ou pensamentos suicidas

14
0

A OpenAI divulgou novas estimativas do número de usuários do ChatGPT que apresentam possíveis sinais de emergências de saúde psychological, incluindo mania, psicose ou pensamentos suicidas.

A empresa disse que cerca de 0,07% dos usuários do ChatGPT ativos em uma determinada semana exibiram tais sinais, acrescentando que seu chatbot de inteligência synthetic (IA) reconhece e responde a essas conversas confidenciais.

Embora a OpenAI afirme que esses casos são “extremamente raros”, os críticos disseram que mesmo uma pequena porcentagem pode chegar a centenas de milhares de pessoas, já que o ChatGPT atingiu recentemente 800 milhões de usuários ativos semanais, segundo o chefe Sam Altman.

À medida que o escrutínio aumenta, a empresa disse que construiu uma rede de especialistas em todo o mundo para aconselhá-la.

Esses especialistas incluem mais de 170 psiquiatras, psicólogos e médicos de atenção primária que atuam em 60 países, disse a empresa.

Eles desenvolveram uma série de respostas no ChatGPT para incentivar os usuários a buscar ajuda no mundo actual, de acordo com a OpenAI.

Mas a visão dos dados da empresa causou espanto entre alguns profissionais de saúde psychological.

“Mesmo que 0,07% pareça uma pequena porcentagem, em uma população com centenas de milhões de usuários, na verdade pode ser um número bastante grande de pessoas”, disse o Dr. Jason Nagata, professor que estuda o uso da tecnologia entre jovens adultos na Universidade da Califórnia, em São Francisco.

“A IA pode alargar o acesso ao apoio à saúde psychological e, de certa forma, apoiar a saúde psychological, mas temos de estar conscientes das limitações”, acrescentou o Dr.

A empresa também estima que 0,15% dos usuários do ChatGPT têm conversas que incluem “indicadores explícitos de potencial planejamento ou intenção suicida”.

A OpenAI disse que as atualizações recentes em seu chatbot são projetadas para “responder com segurança e empatia a possíveis sinais de ilusão ou mania” e observar “sinais indiretos de potencial automutilação ou risco de suicídio”.

O ChatGPT também foi treinado para redirecionar conversas confidenciais “originárias de outros modelos para modelos mais seguros”, abrindo em uma nova janela.

Em resposta às perguntas da BBC sobre as críticas sobre o número de pessoas potencialmente afetadas, a OpenAI disse que esta pequena percentagem de utilizadores equivale a uma quantidade significativa de pessoas e observou que estão a levar as mudanças a sério.

As mudanças ocorrem no momento em que a OpenAI enfrenta um crescente escrutínio jurídico sobre a forma como o ChatGPT interage com os usuários.

Em uma das ações judiciais mais importantes movidas recentemente contra a OpenAI, um casal da Califórnia processou a empresa pela morte de seu filho adolescente, alegando que ChatGPT o encorajou a tirar a própria vida em abril.

A ação foi movida pelos pais de Adam Raine, de 16 anos, e foi a primeira ação authorized acusando a OpenAI de homicídio culposo.

Num caso separado, o suspeito de um homicídio-suicídio ocorrido em agosto em Greenwich, Connecticut, publicou horas das suas conversas com o ChatGPT, que parecem ter alimentado os delírios do alegado perpetrador.

Mais usuários lutam contra a psicose da IA ​​à medida que “os chatbots criam a ilusão da realidade”, disse o professor Robin Feldman, diretor do AI Regulation & Innovation Institute da College of California Regulation. “É uma ilusão poderosa.”

Ela disse que a OpenAI merece crédito por “compartilhar estatísticas e pelos esforços para melhorar o problema”, mas acrescentou: “a empresa pode colocar todos os tipos de avisos na tela, mas uma pessoa que está mentalmente em risco pode não ser capaz de atender a esses avisos”.

avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui