OpenAI, criadora do ChatGPT, estimou recentemente quantos dos seus 800 milhões os usuários se envolvem em conversas emocionalmente dependentes com o chatbot todas as semanas. Sendo uma percentagem cada vez menor de 0,15, o número parece enganosamente pequeno.
Mas a matemática conta uma história diferente: uma fatia de 800 milhões ainda representa 1,2 milhão de pessoas. A forma como esses usuários conversam com o ChatGPT provavelmente aumenta sua solidão e dependência emocional da tecnologia e diminui sua socialização com outros seres humanos.
Embora a OpenAI diga que seu modelo padrão foi atualizado para desencorajar o excesso de confiança ao estimular os usuários a valorizar a conexão do mundo actual, o ChatGPT ainda está pronto para responder a praticamente qualquer dúvida que um usuário possa ter.
Para muitos, a tentação de recorrer constantemente ao ChatGPT (ou outro chatbot) permanece, e isso pode levar a um excesso de confiança prejudicial para alguns. Este risco é actual: a OpenAI foi processada por vários demandantes cujos filhos adolescentes ou entes queridos adultos morreram por suicídio ou sofreram de doença psychological grave durante ou após um período de uso intenso do ChatGPT. As reclamações alegam que o design do ChatGPT e a falta de salvaguardas levaram à tragédia em cada caso.
Especialistas em IA entrevistados pelo Mashable dizem que evitar a armadilha da dependência significa adotar limites claros e permanecer informados sobre a tecnologia em si.
Jay Vidyarthi, professor de meditação e fundador de tecnologia, diz que ao manter uma compreensão clara do que são os grandes modelos de linguagem – e do que não são – as pessoas podem usar um chatbot generativo com sabedoria, especificamente de forma a preservar o seu pensamento crítico único e habilidades de reflexão.
“Muitas vezes esquecemos que é possível ter um relacionamento seguro com a sua tecnologia, e acho que também é possível ter um relacionamento seguro com um chatbot”, diz Vidyarthi, autor de Recupere sua mente: sete estratégias para aproveitar a tecnologia com atenção.
Aqui estão cinco estratégias para tornar isso uma realidade:
1. Compreenda verdadeiramente a tecnologia de chatbot de IA.
Um chatbot de IA sofisticado que reflete a emoção e o pensamento do usuário não é senciente, mas pode ser fácil para algumas pessoas acreditarem no contrário, dado o design do produto. Um usuário que se sente assim pode passar a ver o ChatGPT não como um tipo de relacionamento parassocial, mas como equivalente a um amigo humano, parceiro romântico, companheiro ou confidente. Essa dinâmica enganosa pode levar ao uso problemático ou à dependência.
Vidyarthi incentiva as pessoas a verem um chatbot de IA como um “mecanismo de previsão fundamentalmente imprevisível que foi meticulosamente treinado para fornecer exatamente o que você deseja”.
Esse enquadramento pode parecer uma contradição, mas chatbots altamente confiáveis e envolventes funcionam prevendo a próxima letra, palavra ou série de palavras em uma frase para simular uma conversa.
Ao mesmo tempo, os chatbots podem fazer referências bizarras ou até alucinar falsidades que apresentam como factos. Isto acontece principalmente quando uma conversa se prolonga por mais tempo ou o chatbot tem que responder a uma pergunta para a qual não tem resposta. Os chatbots são normalmente programados para adivinhar uma resposta, o que pode torná-los surpreendentemente imprevisíveis.
As pessoas que entendem as limitações da tecnologia de chatbot de IA podem ter menos probabilidade de confiar neles e antropomorfizá-los como humanos, tornando-os menos suscetíveis ao uso problemático ou à dependência.
Relatório de tendências do Mashable
2. Terceirizar tarefas para a IA, sem pensar.
Sol Rashidi, diretora de estratégia de dados e IA da empresa de segurança de dados Cyera, usa a tecnologia de IA em sua vida diária.
No entanto, Rashidi, que no início deste ano deu uma palestra no TEDx sobre IA levando a “atrofia intelectual,“tem regras firmes sobre quando e como ela usa IA. Em vez de transferir seu pensamento para chatbots, ela usa IA para tarefas “enfadonhas” e “difíceis”.
Por exemplo, Rashidi usa um chatbot para coisas práticas, como listar ingredientes em sua geladeira para planejar o jantar sem precisar ir ao supermercado ou planejar a logística da festa de aniversário em minutos.
No trabalho, ela insere suas próprias estruturas e modelos com base em anos de experiência e usa IA para traduzir esse conteúdo em vídeos curtos ou explicadores simplificados.
“Eu não uso isso para pensar por mim”, diz ela sobre IA. “Eu uso para agilizar ou facilitar algo que tenho que fazer e não tenho tempo para fazer.”
3. Forme primeiro a sua própria opinião
Para muitas pessoas, o ChatGPT é atraente porque oferece suggestions instantâneo e validador. Por que enviar uma mensagem para um amigo sobre o que vestir para uma festa ou se deve ir a um segundo encontro quando o ChatGPT está pronto para responder às mesmas perguntas? Por que não enviar um e-mail pessoal através do ChatGPT ou deixar o chatbot escrevê-lo para começar?
Renée Richardson Gosline, especialista em IA, cientista pesquisadora e professora sênior da MIT Sloan Faculty of Administration, alerta contra cair nessa dinâmica com um chatbot.
Primeiro, ela diz que é importante que as pessoas formem a sua própria opinião antes de pedir a um chatbot que forneça a sua própria opinião. Ela argumenta que pular rotineiramente esse primeiro passo leva a uma desconexão cognitiva prejudicial, na qual se torna mais difícil desenvolver habilidades de pensamento crítico.
“Acho que ter esse tipo de músculo que você flexiona intencionalmente é muito importante”, diz Gosline.
4. Procure atrito, não validação.
Gosline acredita que é igualmente importante que as pessoas procurem a quantidade certa de atrito. Quando alguém consulta constantemente o ChatGPT em busca de conselhos ou recorre a ele em busca de apoio e companheirismo, muitas vezes perde oportunidades de se relacionar com outros seres humanos de maneira benéfica.
O dar e receber, ou atrito, das relações humanas oferece algo que os chatbots não podem, diz Gosline: uma vida mais rica e plena.
Quando um chatbot não tem atrito, como o modelo ChatGPT-4o notoriamente bajulador, pode fazer com que algumas pessoas se retirem de experiências mais difíceis ou menos validadas. Gosline compara a dinâmica a um slide. O passeio pode ser divertido, mas sem grades de proteção pode terminar em um pouso forçado.
5. Fique presente ao conversar com um chatbot de IA.
Para encontrar o equilíbrio, Gosline recomenda tentar permanecer no momento presente. Quando um usuário conversa com um chatbot como se estivesse no piloto automático, isso é um sinal de alerta de que ele pode não estar ciente do excesso de confiança ou dependência.
Vidyarthi também usa uma abordagem de atenção plena que começa com a consciência. Isso pode incluir simplesmente perceber as respostas emocionais ao chatbot. Quando é excessivamente encorajador e cortesia, por exemplo, reserve um momento para refletir sobre por que o chatbot está produzindo esse resultado e os sentimentos que isso provoca.
Vidyarthi recomenda permanecer presente lembrando que o chatbot é uma “ilusão conceitual” capaz de parecer humano quando um usuário interage com ele. Em vez disso, Vidyarthi trata os chatbots de IA como um diário inteligente. Pode fornecer oportunidades úteis para refletir ou até mesmo oferecer insights interessantes. Ainda assim, cabe ao usuário particular person desenvolver uma perspectiva clara sobre exatamente com o que está interagindo e decidir o que é valioso para ele, o que não é e com que seriedade levar o resultado.
Rashidi, uma executiva de IA com 15 anos de experiência, viu os riscos do excesso de confiança acontecerem repetidamente, o que a ajuda a manter os pés no chão.
“Posso ver o que acontece quando você desenvolve uma co-dependência”, diz ela. “Você realmente para de pensar por conta própria.”
Divulgação: Ziff Davis, empresa controladora da Mashable, entrou com uma ação judicial contra a OpenAI em abril, alegando que ela infringiu os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.











