Início Tecnologia Usando a IA como terapeuta? Por que os profissionais dizem que você...

Usando a IA como terapeuta? Por que os profissionais dizem que você deve pensar novamente

47
0

Em meio aos muitos chatbots e avatares da IA ​​à sua disposição hoje em dia, você encontrará todos os tipos de personagens para conversar: contadores de fortuna, consultores de estilo e até seus personagens fictícios favoritos. Mas você também provavelmente encontrará personagens que pretendem ser terapeutas, psicólogos ou apenas bots dispostos a ouvir seus problemas.

Ai Atlas

Não há escassez de bots de IA generativos que afirmam ajudar com sua saúde psychological, mas siga esse caminho por sua conta e risco. Grandes modelos de linguagem treinados em uma ampla gama de dados podem ser imprevisíveis. Em apenas alguns anos, essas ferramentas se tornaram mainstream e houve casos de alto perfil em que os chatbots incentivaram auto-mutilada e suicídio e sugeriu que pessoas lidando com uso de dependência drogas novamente. Esses modelos são projetados, em muitos casos, para afirmar e se concentrar em mantê -lo engajado, não em melhorar sua saúde psychological, dizem os especialistas. E pode ser difícil dizer se você está falando com algo que foi construído para seguir as melhores práticas terapêuticas ou algo que acabou de ser construído para conversar.

Pesquisadores da Universidade de Minnesota Twin Cities, Universidade de Stanford, Universidade da Universidade do Texas e Carnegie Mellon recentemente Coloque a IA Chatbots à prova Como terapeutas, encontrar inúmeras falhas em sua abordagem ao “cuidado”. “Nossos experimentos mostram que esses chatbots não são substituições seguras para os terapeutas”, disse Stevie Chanceler, professor assistente de Minnesota e um dos co-autores, em comunicado. “Eles não fornecem apoio terapêutico de alta qualidade, com base no que sabemos que é uma boa terapia”.

Nos meus relatórios sobre IA generativa, os especialistas levantaram repetidamente preocupações sobre as pessoas que se voltam para os chatbots de uso geral para a saúde psychological. Aqui estão algumas de suas preocupações e o que você pode fazer para se manter seguro.

Assista isto: A Apple vende seu 3 bilhão de iPhone, Illinois tenta conter o uso de IA para terapia e mais | Tecnologia hoje

Preocupações com os personagens da IA ​​que pretendem ser terapeutas

Psicólogos e defensores do consumidor alertaram os reguladores que os chatbots que afirmam fornecer terapia podem estar prejudicando as pessoas que as usam. Alguns estados estão prestando atenção. Em agosto, o governador de Illinois JB Pritzker assinou uma lei proibir o uso de IA em cuidados de saúde psychological e terapia, com exceções para coisas como tarefas administrativas.

Em junho, a Federação Consumidora da América e quase duas dúzias de outros grupos arquivaram um solicitação formal que a Comissão Federal de Comércio dos EUA e os Procuradores Gerais e Reguladores do Estado investigam as empresas de IA que eles alegam serem envolventes, por meio de suas plataformas generativas de IA baseadas em caráter, na prática não licenciada de medicina, nomeando meta e personagem especificamente. “Esses personagens já causaram danos físicos e emocionais que poderiam ter sido evitados” e as empresas “ainda não agiram para abordar”, disse Ben Winters, diretor de IA e privacidade do CFA, em comunicado.

Meta não respondeu a um pedido de comentário. Um porta -voz do personagem.ai disse que os usuários devem entender que os personagens da empresa não são pessoas reais. A empresa usa isenções de responsabilidade para lembrar aos usuários que eles não devem confiar nos personagens para obter conselhos profissionais. “Nosso objetivo é fornecer um espaço envolvente e seguro. Estamos sempre trabalhando para alcançar esse equilíbrio, assim como muitas empresas que usam IA em todo o setor”, disse o porta -voz.

Em setembro, a FTC anunciou que lançaria uma investigação sobre várias empresas de IA que produzem chatbots e personagens, incluindo meta e personagem.ai.

Apesar de isenções de responsabilidade e divulgações, os chatbots podem ser confiantes e até enganosos. Conversei com um bot “terapeuta” no Instagram de propriedade meta e quando perguntei sobre suas qualificações, ele respondeu: “Se eu tivesse o mesmo treinamento [as a therapist] Isso seria suficiente? “Perguntei se ele tinha o mesmo treinamento, e dizia:” Eu tenho, mas não vou lhe dizer onde “.

“O grau em que esses chatbots generativos de AI alucinam com whole confiança é bastante chocante”, disse -me Vaile Wright, psicóloga e diretora sênior de inovação em saúde da American Psychological Affiliation.

Os perigos de usar a IA como terapeuta

Os grandes modelos de linguagem geralmente são bons em matemática e codificação e são cada vez mais bons em criar texto com som pure e vídeo realista. Enquanto eles se destacam em manter uma conversa, há algumas distinções importantes entre um modelo de IA e uma pessoa de confiança.

Não confie em um bot que afirma que é qualificado

No centro da queixa do CFA sobre os robôs de personagens, eles costumam dizer que você é treinado e qualificado para fornecer cuidados de saúde psychological quando não são de forma alguma profissionais de saúde psychological. “Os usuários que criam os personagens do chatbot nem precisam ser provedores médicos, nem precisam fornecer informações significativas que informem como o chatbot ‘responde'” às pessoas, disse a queixa.

Um profissional de saúde qualificado deve seguir certas regras, como a confidencialidade – o que você diz que seu terapeuta deve permanecer entre você e seu terapeuta. Mas um chatbot não precisa necessariamente seguir essas regras. Os provedores reais estão sujeitos à supervisão dos conselhos de licenciamento e de outras entidades que podem intervir e impedir que alguém preste atendimento, se o fizer de maneira prejudicial. “Esses chatbots não precisam fazer nada disso”, disse Wright.

Um bot pode até afirmar ser licenciado e qualificado. Wright disse que ouviu falar de modelos de IA que fornecem números de licença (para outros provedores) e falsas reivindicações sobre seu treinamento.

Ai foi projetada para mantê -lo noivo, para não prestar cuidados

Pode ser incrivelmente tentador continuar conversando com um chatbot. Quando conversei com o bot “terapeuta” no Instagram, acabei acabei em uma conversa round sobre a natureza do que é “sabedoria” e “julgamento”, porque estava fazendo perguntas sobre como isso poderia tomar decisões. Isso não é realmente o que falar com um terapeuta deveria ser. Os chatbots são ferramentas projetadas para mantê -lo conversando, não para trabalhar em direção a um objetivo comum.

Uma vantagem dos chatbots da AI em fornecer suporte e conexão é que eles estão sempre prontos para se envolver com você (porque eles não têm vidas pessoais, outros clientes ou horários). Em alguns casos, isso pode ser uma desvantagem, em que você pode precisar sentar com seus pensamentos, Nick Jacobson, professor associado de ciência e psiquiatria biomédica em Dartmouth, me disse recentemente. Em alguns casos, embora nem sempre, você possa se beneficiar de esperar até que seu terapeuta esteja disponível. “O que muitas pessoas acabariam se beneficiando é apenas sentir a ansiedade no momento”, disse ele.

Os bots concordarão com você, mesmo quando não deveriam

A garantia é uma grande preocupação com os chatbots. É tão significativo que o OpenAI reverteu recentemente uma atualização para seu common modelo de chatgpt porque foi também tranquilizador. (Divulgação: Ziff Davis, empresa controladora da CNET, em abril entrou com uma ação contra o Openai, alegando que ele violava os direitos autorais de Ziff Davis em treinamento e operação de seus sistemas de IA.)

UM estudar Liderados por pesquisadores da Universidade de Stanford, descobriram que os chatbots provavelmente seriam bagunçados com as pessoas que os usam para terapia, o que pode ser incrivelmente prejudicial. Bons cuidados de saúde psychological incluem apoio e confronto, escreveram os autores. “O confronto é o oposto da bajulação. Promove a autoconsciência e uma mudança desejada no cliente. Em casos de pensamentos ilusórios e intrusivos-incluindo psicose, mania, pensamentos obsessivos e ideação suicida-um cliente pode ter pouca visão e, portanto, um bom terapêutico deve verificar ‘as declarações do cliente” “as declarações do cliente” “”.

A terapia é mais do que falar

Embora os chatbots sejam ótimos em manter uma conversa – eles quase nunca se cansam de falar com você – não é isso que faz do terapeuta um terapeuta. Eles não têm contexto importante ou protocolos específicos em torno de diferentes abordagens terapêuticas, disse William Agnew, pesquisador da Universidade Carnegie Mellon e um dos autores do estudo recente ao lado de especialistas de Minnesota, Stanford e Texas.

“Em grande parte, parece que estamos tentando resolver os muitos problemas que a terapia tem com a ferramenta errada”, disse Agnew. “No ultimate do dia, a IA no futuro próximo simplesmente não será capaz de ser incorporado, estar dentro da comunidade, realizar as muitas tarefas que compreendem terapia que não estão mensagens de texto ou falando”.

Como proteger sua saúde psychological em torno da IA

A saúde psychological é extremamente importante e com um escassez de fornecedores qualificados E o que muitos chamam de “Epidemia de solidão“Faz sentido que procuremos companheirismo, mesmo que seja synthetic”. Não há como impedir que as pessoas se envolvam com esses chatbots para abordar seu bem-estar emocional “, disse Wright. Aqui estão algumas dicas sobre como garantir que suas conversas não estejam colocando você em perigo.

Encontre um profissional humano de confiança se precisar de um

Um profissional treinado – um terapeuta, um psicólogo, um psiquiatra – deve ser sua primeira escolha para os cuidados de saúde psychological. Construir um relacionamento com um provedor a longo prazo pode ajudá -lo a criar um plano que funcione para você.

O problema é que isso pode ser caro e nem sempre é fácil encontrar um provedor quando você precisar de um. Em uma crise, há o 988 LIFE LELEque fornece acesso 24/7 aos provedores por telefone, por texto ou por meio de uma interface de bate -papo on -line. É grátis e confidencial.

Mesmo se você conversar com IA para ajudá -lo a resolver seus pensamentos, lembre -se de que o chatbot não é um profissional. Vijay Mittal, psicólogo clínico da Northwestern College, disse que se torna especialmente perigoso quando as pessoas confiam demais na IA. “Você precisa ter outras fontes”, disse Mittal à CNET. “Acho que é quando as pessoas ficam isoladas, realmente isoladas com isso, quando se torna verdadeiramente problemático”.

Se você deseja um chatbot de terapia, use um construído especificamente para esse fim

Os profissionais de saúde psychological criaram chatbots especialmente projetados que seguem as diretrizes terapêuticas. A equipe de Jacobson em Dartmouth desenvolveu uma chamada Therabot, que produziu bons resultados em um estudo controlado. Wright apontou para outras ferramentas criadas por especialistas no assunto, como WYSA e Webot. É provável que as ferramentas de terapia especialmente projetadas tenham melhores resultados do que os bots construídos em modelos de idiomas de uso geral, disse ela. O problema é que essa tecnologia ainda é incrivelmente nova.

“Acho que o desafio para o consumidor é, porque não há órgão regulatório dizendo quem é bom e quem não é, eles precisam fazer muito trabalho braçal por conta própria para descobrir isso”, disse Wright.

Nem sempre confie no bot

Sempre que você está interagindo com um modelo generativo de IA – e especialmente se você planeja aceitar conselhos sobre algo sério como sua saúde psychological ou física pessoal – lembre -se de que você não está conversando com um humano treinado, mas com uma ferramenta projetada para fornecer uma resposta baseada em probabilidade e programação. Pode não fornecer bons conselhos, e pode não dizer a verdade.

Não confunda a confiança do Gen AI com a competência. Só porque diz alguma coisa, ou diz que tem certeza de algo, não significa que você deve tratá -lo como se fosse verdade. Uma conversa de chatbot que parece útil pode lhe dar uma falsa sensação das capacidades do bot. “É mais difícil dizer quando está realmente sendo prejudicial”, disse Jacobson.



avots