Citando fontes de mídia confiáveis, como a CNN, Grok identificou erroneamente uma imagem de Ahmed como a de um refém israelense mantido pelo grupo militante palestino Hamas por mais de 700 dias.
Quando questionado sobre outra cena do ataque, Grok afirmou incorretamente que se tratava de imagens do “ciclone Alfred” tropical, que gerou mau tempo na costa australiana no início deste ano.
Somente depois que outro usuário pressionou o chatbot para reavaliar sua resposta é que Grok recuou e reconheceu que a filmagem period do tiroteio em Bondi Seashore.
Quando contatado pela AFP para comentar, o desenvolvedor do Grok xAI respondeu apenas com uma resposta gerada automaticamente: “Legacy Media Lies”.
‘Ator de crise’
A desinformação sublinha o que os investigadores dizem ser a falta de fiabilidade dos chatbots de IA como ferramenta de verificação de factos.
Os utilizadores da Web recorrem cada vez mais aos chatbots para verificar imagens em tempo actual, mas as ferramentas falham frequentemente, levantando questões sobre as suas capacidades de desmascaramento visible.
Após o ataque em Sydney, utilizadores on-line divulgaram uma imagem autêntica de um dos sobreviventes, alegando falsamente que ele period um “ator de crise”, informou o órgão de vigilância da desinformação NewsGuard.
Ator de crise é um rótulo depreciativo usado por teóricos da conspiração para alegar que alguém está enganando o público – fingindo ferimentos ou morte – enquanto se faz passar por vítima de um evento trágico.
Os usuários on-line questionaram a autenticidade de uma foto do sobrevivente com sangue no rosto, compartilhando uma resposta de Grok que rotulou falsamente a imagem como “encenada” ou “falsa”.
O NewsGuard também informou que alguns usuários circularam uma imagem de IA – criada com o modelo Nano Banana Professional do Google – retratando tinta vermelha sendo aplicada no rosto do sobrevivente para se passar por sangue, aparentemente para reforçar a falsa alegação de que ele period um ator de crise.
Os pesquisadores dizem que os modelos de IA podem ser úteis para verificadores de fatos profissionais, ajudando a localizar rapidamente imagens e detectar pistas visuais para estabelecer a autenticidade.
Mas alertam que não podem substituir o trabalho de verificadores de factos humanos treinados.
Em sociedades polarizadas, contudo, os verificadores de factos profissionais enfrentam frequentemente críticas de conservadores de preconceito liberal, uma acusação que rejeitam.
A AFP trabalha atualmente em 26 idiomas com o programa de verificação de fatos da Meta, inclusive na Ásia, na América Latina e na União Europeia.
-Agência França-Presse













