Início Notícias Adolescentes usam IA ‘personalizada’ para terapia e romance, revela pesquisa

Adolescentes usam IA ‘personalizada’ para terapia e romance, revela pesquisa

25
0

A natureza “hiperpersonalizada” dos bots de IA está atraindo adolescentes que agora os utilizam para terapia, companheirismo e relacionamentos, de acordo com pesquisas.

Uma pesquisa realizada com meninos em escolas secundárias pela Male Allies UK descobriu que pouco mais de um terço disse que estava considerando a ideia de um amigo com IA, com preocupação crescente com o surgimento de terapeutas e namoradas com IA.

A pesquisa surge como personagem.aia preferred startup de chatbots de inteligência synthetic, anunciou a proibição whole de adolescentes de se envolverem em conversas abertas com seus chatbots de IA, que milhões de pessoas usam para conversas românticas, terapêuticas e outras.

Lee Chambers, fundador e executivo-chefe da Male Allies UK, disse: “Temos uma situação em que muitos pais ainda pensam que os adolescentes estão apenas usando a IA para colar nos deveres de casa.

“Os jovens estão a usá-lo muito mais como um assistente no bolso, um terapeuta quando estão com dificuldades, um companheiro quando querem ser validados e, por vezes, até de uma forma romântica. É esse aspecto de personalização – eles estão dizendo: ele me entende, meus pais não.”

A investigação, baseada num inquérito a rapazes do ensino secundário em 37 escolas em Inglaterra, Escócia e País de Gales, também descobriu que mais de metade (53%) dos rapazes adolescentes afirmaram considerar o mundo on-line mais gratificante do que o mundo actual.

O relatório Voice of the Boys diz: “Mesmo onde as barreiras de proteção deveriam estar instaladas, há uma montanha de evidências que mostram que os chatbots mentem rotineiramente sobre ser um terapeuta licenciado ou uma pessoa actual, com apenas um pequeno aviso na parte inferior dizendo que o chatbot de IA não é actual.

“Isso pode ser facilmente esquecido ou esquecido pelas crianças que abrem seus corações para o que consideram um profissional licenciado ou um verdadeiro interesse amoroso.”

Alguns meninos relataram ficar acordados até de madrugada para conversar com bots de IA e outros disseram que viram a personalidade dos amigos mudar completamente depois que foram sugados para o mundo da IA.

“Os companheiros de IA personalizam-se para o usuário com base em suas respostas e nos prompts. Ele responde instantaneamente. Humanos reais nem sempre podem fazer isso, então é muito, muito validador o que diz, porque quer mantê-lo conectado e mantê-lo usando”, disse Chambers.

O anúncio da character.ai veio após uma série de controvérsias para a empresa californiana de quatro anos, incluindo um garoto de 14 anos que se matou na Flórida depois de ficar obcecado por um chatbot alimentado por IA que sua mãe alegou que o manipulou para tirar a própria vida, e um americano ação judicial da família de um adolescente que afirma que um chatbot o manipulou para se machucar e o encorajou a assassinar seus pais.

Os usuários conseguiram moldar o caráter dos chatbots para que tendessem a ficar deprimidos ou otimistas, e isso se refletiria em suas respostas. A proibição entrará em vigor em 25 de novembro.

Personagem.ai disse estava a tomar “passos extraordinários” à luz do “cenário em evolução em torno da IA ​​e dos adolescentes”, incluindo a pressão dos reguladores “sobre como o chat aberto da IA ​​em geral pode afectar os adolescentes, mesmo quando os controlos de conteúdo funcionam perfeitamente”.

pular a promoção do boletim informativo

Andy Burrows, presidente-executivo da Fundação Molly Rose, criada em nome de Molly Russell, 14 anos, que suicidou-se depois de cair num vórtice de desespero nas redes sociais, saudou a medida.

Ele disse: “Character.ai nunca deveria ter disponibilizado seu produto para crianças até e a menos que fosse seguro e apropriado para uso delas. Mais uma vez, foi necessária pressão sustentada da mídia e dos políticos para obrigar uma empresa de tecnologia a fazer a coisa certa.”

Male Allies UK levantou preocupação sobre a proliferação de chatbots com “terapia” ou “terapeuta” em seus nomes. Um dos chatbots mais populares disponíveis através do character.ai, chamado Psychologist, recebeu 78 milhões de mensagens um ano após sua criação.

A organização também está preocupada com o surgimento de “namoradas” de IA, com os usuários capazes de selecionar pessoalmente tudo, desde a aparência física até o comportamento de seus parceiros on-line.

“Se a sua principal ou única fonte de conversa com uma rapariga em quem estão interessados ​​é alguém que não consegue dizer-lhes ‘não’ e que se prende a cada palavra sua, os rapazes não estão a aprender formas saudáveis ​​ou realistas de se relacionarem com os outros”, afirma o relatório.

“Com problemas relacionados com a falta de espaços físicos para conviver com os seus pares, os companheiros de IA podem ter um efeito seriamente negativo na capacidade dos rapazes de socializarem, desenvolverem competências relacionais e aprenderem a reconhecer e respeitar limites.”

avots