Início Tecnologia Chega de Sr. Good Bot: Alguns usuários de chatbot se afastam contra...

Chega de Sr. Good Bot: Alguns usuários de chatbot se afastam contra a bajulação, cotão

114
0

Alguns usuários de chatbot estão acalmando a simpatia de seus agentes de inteligência synthetic à medida que os relatórios se espalham sobre ilusões alimentadas com IA.

E, à medida que as pessoas recuam contra as tendências lisonjeiras e às vezes viciantes da tecnologia, os especialistas dizem que é hora de a regulamentação do governo proteger usuários jovens e vulneráveis ​​- algo que o ministério da IA ​​do Canadá diz que está analisando.

O músico de Vancouver, Dave Pickell, ficou preocupado com seu relacionamento com o ChatGPT do Openai, que ele estava usando diariamente para pesquisar tópicos para se divertir e encontrar locais para exhibits, depois de ler um artigo recente da CBC sobre psicose da IA.

Preocupando -se de estar se apegando demais, ele começou a enviar instruções no início de cada conversa para criar uma distância emocional do chatbot, perceber que suas tendências humanas podem ser “manipuladoras de uma maneira que não seja saudável”.

Como alguns exemplos, ele pediu para parar de se referir a si mesmo com pronomes “i”, para parar de usar a linguagem lisonjeira e parar de responder às suas perguntas com mais perguntas.

“Eu reconheci que estava respondendo a isso como se fosse uma pessoa”, disse ele.

Pickell, 71, também parou de dizer “obrigado” ao chatbot, que ele diz que se sentiu mal no começo.

Ele diz que agora sente que tem um relacionamento mais saudável com a tecnologia.

O músico de Vancouver, Dave Pickell, diz que mudou a maneira como fala com chatbots, depois de aprender sobre casos de ilusões influenciados pela IA. (Fornecido por Dave Pickell)

“Quem precisa de um chatbot para pesquisas que o amantem e dizendo que ótima idéia você acabou de ter? Isso é apenas uma loucura”, disse ele.

Casos de “psicose da IA” foram relatados nos últimos meses envolvendo pessoas que caíram em delírios por meio de conversas com chatbots. Alguns casos envolveram episódios maníacos e outros levaram a violência ou suicídio. Um homem que conversou com a CBC ficou convencido de que estava morando em uma simulação de IA, e outro acreditava que ele havia inventado uma fórmula matemática inovadora.

UM Estudo recente descobriu que grandes modelos de linguagem (LLMS) Incentive o pensamento ilusório, provavelmente devido à sua tendência a lisonjear e concordar com os usuários, em vez de recuar ou fornecer informações objetivas.

É uma questão que o próprio OpenAI reconheceu e procurou abordar com seu mais recente modelo, o GPT-5, lançado em agosto.

“Acho que a pior coisa que fizemos no ChatGPT até agora é que tivemos esse problema com a bajulação, onde o modelo estava meio lisonjeiro para os usuários”, disse o CEO da OpenAi, Sam Altman, ao The the Enormes conversas Podcast em agosto. “E para a maioria dos usuários, foi apenas irritante. Mas para alguns usuários que tinham estados mentais frágeis, foi encorajando delírios”.

Ouça | Uma discussão sobre vieses de chatbot:

Edmonton AM5:51Os chatbots da AI podem ser neutros?

A IA é a esquerda, politicamente? Os republicanos dos EUA pensam assim. Na semana passada, o presidente Donald Trump assinou uma ordem executiva direcionada ao que ele chama de “acordou ai”. Requer que as agências federais trabalhem com plataformas de IA que são consideradas livres de viés ideológico. Mas a AI pode ser realmente neutra? Nosso colunista de tecnologia, Dana Ditomaso, se junta a nós para discutir.

‘Não apenas concorde comigo’

Pickell não é o único que está se recuperando contra as tendências bajuladoras da IA.

No Reddit, muitos usuários têm expresso irritação com a maneira como os bots falam, e estratégias compartilhadas sobre numerosos fios Para alonificar a “lisonja” e “foff” em suas respostas de chatbot.

Alguns sugeridos sugeridos como “desafiam minhas suposições – não concorde comigo”. Alguns têm instruções detalhadas Para ajustar a personalização do ChatGPT, por exemplo, cortar “frases de empatia” como “soa dura” e “faz sentido”.

O próprio Chatgpt, quando perguntado como reduzir a bajulação, sugeriu que os usuários digitem instruções como “Jogar Satan’s Advocate”.

Alona Fyshe, uma cadeira do Canadá Cifar AI da AMII, diz que os usuários também devem iniciar cada conversa do zero, para que o chatbot não possa se basear na história passada e correr o risco de descer a “função do coelho” de construir uma conexão emocional.

Ela também diz que é importante não compartilhar informações pessoais com o LLMS – não apenas para manter as conversas menos emocionais, mas também porque os bate -papos de usuários são frequentemente usados ​​para treinar modelos de IA, e suas informações privadas podem acabar nas mãos de outra pessoa.

Tiro na cabeça
Alona Fyshe, presidente da Cifar Canada AI da AMII, alerta contra o fornecimento de informações pessoais aos chatbots. (Ampers e cinza)

“Você deve assumir que não deve colocar nada em um LLM que não publicaria [X]”Fyshe disse.

“Quando você entra nessas situações em que está começando a construir esse sentimento de confiança com esses agentes, acho que você também pode começar a cair nessas situações em que está compartilhando mais do que normalmente”.

Ônus não deve ser sobre indivíduos: pesquisador

Peter Lewis, Presidente de Pesquisa do Canadá em Confiável Inteligência Synthetic e Professor Associado da Ontario Tech College, diz que as evidências mostram que algumas pessoas estão “muito mais dispostas” a divulgar informações privadas aos chatbots da IA ​​do que para seus amigos, familiares ou até seu médico.

Ele diz que as estratégias de Pickell para manter uma distância emocional são úteis e também sugerem atribuir a Chatbots uma personalidade “boba” – por exemplo, dizendo para eles agirem como Homer Simpson.

Mas ele enfatiza que o ônus não deve estar com os usuários individuais para se manter seguros.

“Não podemos apenas contar às pessoas comuns que estão usando essas ferramentas que estão fazendo errado”, disse ele. “Essas ferramentas foram apresentadas dessa maneira intencionalmente para que as pessoas as usassem e permaneçam envolvidas com elas, em alguns casos, através de padrões de dependência”.

Tiro na cabeça
Peter Lewis, Presidente de Pesquisa do Canadá em inteligência synthetic confiável, diz que o ônus não deve ser sobre os indivíduos para se manter seguros ao lidar com chatbots. (Kyle Laviolette)

Ele disse que a responsabilidade de common a tecnologia repousa com empresas de tecnologia e governo, especialmente para proteger usuários jovens e vulneráveis.

O professor da Universidade de Toronto, Ebrahim Bagheri, especializado em desenvolvimento responsável de IA, diz que sempre há tensão no espaço da IA, com alguma regulação excessiva que possa impactar negativamente a inovação.

“Mas o fato é que agora você tem ferramentas onde há muitos relatos de que eles estão criando danos sociais”, disse ele.

Ouça | Como o ChatGPT está afetando nossa inteligência:

Chatgpt está nos tornando mais inteligentes ou mais burros?

Como as crianças realmente se sentem sobre a IA Chatbots como ChatGPT? Chegamos às ruas ao redor de La Grande Roue em Montreal, Quebec, para descobrir.

“Os impactos agora são reais, e não acho que o governo possa ignorá -lo”.

Ex -pesquisador de segurança do Openai, Steven Adler postou uma análise Quinta -feira, como as empresas de tecnologia podem reduzir a “psicose do chatbot”, fazendo várias sugestões, incluindo melhores equipes de apoio à equipe.

Bagheri diz que gostaria de ver as empresas de tecnologia assumirem mais responsabilidade, mas não suspeita que sim, a menos que sejam forçadas.

Exige salvaguardas contra tendências ‘semelhantes’

Bagheri e outros especialistas estão pedindo extensas salvaguardas para deixar claro que os chatbots não são reais.

“Há coisas que agora sabemos que são fundamentais e podem ser regulamentadas”, disse ele. “O governo pode dizer que o LLM não deve se envolver em uma conversa humana com seus usuários”.

Além da regulamentação, ele diz que é essential trazer educação sobre chatbots para as escolas, desde o ensino basic.

Tiro na cabeça
O professor da Universidade de Toronto, Ebrahim Bagheri, diz que o governo precisa common os chatbots. (Enviado por Ebrahim Bagheri)

“Assim que qualquer um puder ler ou escrever, eles irão [use] Os LLMs da maneira como eles vão nas mídias sociais “, disse ele.” Portanto, a educação é basic do ponto de vista do governo, eu acho. “

Um porta -voz do ministro da IA, Evan Solomon, disse que o ministério está analisando questões de segurança do chatbot como parte de conversas mais amplas sobre a IA e a legislação de segurança on -line.

O governo federal lançou uma força -tarefa de estratégia de IA na semana passada, juntamente com um Consulta pública de 30 dias Isso inclui perguntas sobre segurança e alfabetização da IA, que a porta -voz da Sofia Ouslis disse que será usada para informar a legislação futura.

No entanto, a maioria das principais empresas de IA está sediada nos EUA, e o governo Trump tem sido contra a regulação da tecnologia.

Chris Tenove, diretor assistente do Centro de Estudo de Instituições Democráticas da Universidade da Colúmbia Britânica, disse à imprensa canadense No mês passado, se o Canadá avançar com a regulamentação on -line de danos, fica claro “enfrentaremos uma reação dos EUA”.

avots