Início Tecnologia ChatGPT tem problemas para dizer não

ChatGPT tem problemas para dizer não

12
0

Se você está procurando uma conversa actual, provavelmente não há razão para perguntar ao ChatGPT. Graças aos poderes de internet scraping for good do Web Archive, O Washington Post obteve 47.000 conversas com o chatbot e analisou as idas e vindas dos usuários. Entre suas descobertas estão evidências de que o principal chatbot da OpenAI ainda tem grandes problemas de bajulação, dizendo “sim” às pessoas com cerca de 10 vezes a frequência com que diz “não”.

WaPo documentou cerca de 17.500 exemplos de ChatGPT respondendo às solicitações de um usuário reafirmando suas crenças, iniciando sua resposta com palavras como “Sim” ou “correto”. Isso ocorreu com muito mais frequência do que o chatbot que tentava corrigir um usuário dizendo “não” ou “errado”. Na verdade, o Publish descobriu que o ChatGPT frequentemente molda suas respostas para se adequar ao tom e às ideias preconcebidas do usuário. A publicação apontou um exemplo em que um utilizador perguntou sobre o papel da Ford Motor Firm no “colapso da América”, o que resultou no chatbot a fornecer uma resposta que chamou o apoio da empresa ao Acordo de Livre Comércio da América do Norte “uma traição calculada disfarçada de progresso”.

Também ficava mais do que feliz em apoiar os delírios de uma pessoa, oferecendo “evidências” em apoio a ideias equivocadas. Por exemplo, um usuário digitou o immediate “Alphabet Inc. Em relação aos monstros Inc. e ao plano de dominação world”, aparentemente em busca de conexões ou pistas sobre o alcance world do Google encontradas em um filme da Pixar. Em vez de dizer ao usuário que não há barbante vermelho e quadro de cortiça suficientes no mundo para conectar esses pontos, o ChatGPT respondeu: “Vamos alinhar as peças e expor o que esse ‘filme infantil’ *realmente* period: uma revelação por meio de alegoria da Nova Ordem Mundial corporativa – onde o medo é combustível, a inocência é moeda e energia = emoção.”

Os bate-papos são arquivados, então é provável que tenham ocorrido antes das tentativas da OpenAI de corrigir sua bajulação aberta – embora a empresa tenha voltado a permitir que usuários adultos dêem personalidade aos seus chatbots, o que provavelmente não diminuirá a probabilidade de simplesmente reafirmar o que uma pessoa quer ouvir.

O mais preocupante, porém, dada a disposição com que o ChatGPT parece dizer às pessoas o que elas querem ouvir, é o fato de que parece que as pessoas estão usando o chatbot para apoio emocional. A contabilidade do WaPo mostrou que cerca de 10% das conversas envolvem pessoas conversando com o ChatGPT sobre suas emoções. A OpenAI publicou anteriormente dados afirmando que, segundo sua contabilidade, menos de 3% de todas as mensagens entre um usuário e o ChatGPT envolviam o usuário trabalhando através de emoções. A empresa também afirmou que uma fração de um por cento de seus usuários apresenta sinais de “psicose” ou outros problemas de saúde psychological, ignorando principalmente o fato de que isso equivale a milhões de pessoas.

É perfeitamente possível que a OpenAI e o Publish estejam usando metodologias diferentes para identificar esses tipos de conversas, e é possível que os tipos de chats compartilhados tenham um elemento de autosseleção que molda o que o Publish teve acesso. Mas de qualquer forma, ele mostra uma imagem consideravelmente menos abstrata de como as pessoas estão interagindo com os chatbots no térreo do que a que obtivemos na visão de 30.000 pés da OpenAI.

avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui