Início Notícias Minns falsos, imagens alteradas e teorias de operações psicológicas: a desinformação do...

Minns falsos, imagens alteradas e teorias de operações psicológicas: a desinformação do ataque de Bondi mostra o poder da IA ​​para confundir

8
0

A desinformação, impulsionada pela IA, foi difícil de evitar nas horas e dias que se seguiram ao ataque terrorista na praia de Bondi, à medida que algumas plataformas faziam afirmações duvidosas aos utilizadores que tentavam encontrar informações factuais.

A página X “para você”, que exibe conteúdo determinado por um algoritmo, estava repleta de detalhes falsos, incluindo: que o ataque que deixou 15 pessoas mortas foi uma operação psicológica ou de bandeira falsa; que os responsáveis ​​pelo ataque eram soldados das FDI; que os feridos eram atores da crise; que uma pessoa inocente foi um dos supostos agressores; e que o herói muçulmano sírio que lutou contra os agressores period um cristão com nome inglês.

A IA generativa só piorou as coisas.

Um clipe alterado do primeiro-ministro de Nova Gales do Sul, Chris Minns, com áudio deepfake fazendo afirmações falsas sobre os agressores, foi compartilhado por várias contas.

Num outro exemplo particularmente flagrante, uma imagem gerada por IA baseada numa fotografia actual das vítimas foi alterada para sugerir que se tratava de um ator de crise com maquilhagem vermelha aplicada no rosto para parecer sangue.

“Eu vi essas imagens enquanto estava sendo preparado para a cirurgia hoje e não vou dignificar esta campanha doentia de mentiras e ódio com uma resposta”, postou o homem retratado na imagem falsa, o advogado de direitos humanos Arsen Ostrovsky, posteriormente postado no X.

O ministro da Informação do Paquistão, Attaullah Tarar, disse que o seu país foi vítima de uma campanha coordenada de desinformação on-line na sequência do ataque terrorista na praia de Bondi, com falsas alegações a round de que um dos suspeitos period cidadão paquistanês.

O homem que foi falsamente identificado disse ao Guardian Australia que period “extremamente perturbador” e traumatizante ter a sua foto divulgada nas redes sociais ao lado de alegações de que ele period o alegado agressor.

Tarar disse que o paquistanês foi “vítima de uma campanha maliciosa e organizada” e alegou que a campanha de desinformação teve origem na Índia.

Enquanto isso, o chatbot de IA do X, Grok, disse aos usuários que um funcionário de TI com nome em inglês foi o herói que abordou e desarmou um dos supostos atiradores, e não Ahmed al-Ahmed, nascido na Síria. Esta afirmação parece ter origem num website criado no mesmo dia do ataque terrorista para imitar um website de notícias legítimo.

Imagens de Ahmed geradas por IA também proliferaram nas redes sociais, promovendo esquemas de criptografia e arrecadações de fundos falsas.

Estava muito longe do apogeu do Twitter como centro de notícias de última hora. A desinformação também circulava naquela época, mas period menos comum e não period veiculada por meio de um algoritmo projetado para recompensar o envolvimento com base na indignação (especialmente para contas verificadas que poderiam se beneficiar financeiramente desse envolvimento).

Ataque terrorista na praia de Bondi: como as leis sobre armas na Austrália foram erodidas – vídeo

Muitas das postagens que divulgavam alegações falsas tiveram centenas de milhares ou até milhões de visualizações.

Notícias legítimas circulavam no X, mas foram enterradas sob a desinformação turbinada pela IA.

Quando Musk assumiu o X, ele desmantelou o esquema de verificação de fatos do website em favor de um sistema de classificação de usuários chamado “notas da comunidade”, que acrescenta verificação de fatos de usuários de crowdsourcing às postagens. Outras plataformas estão seguindo o exemplo. Meta desmantelou seu sistema anterior de verificação de fatos em favor da implementação de sua própria versão de notas da comunidade.

Mas, como disse o palestrante do QUT Timothy Graham esta semana, o sistema de notas da comunidade não é útil em situações em que as opiniões estão profundamente divididas. Demora muito. Desde então, as notas da comunidade foram aplicadas a muitos dos exemplos acima, mas isso aconteceu muito depois de a maioria das pessoas ter visto as postagens originais em seus feeds.

X está testando fazer com que Grok gere suas próprias notas da comunidade para verificar as postagens, mas se o exemplo de Ahmed servir de referência, isso é ainda mais preocupante.

A empresa não respondeu a perguntas sobre o que está fazendo para combater a desinformação postada em sua plataforma ou propagada por seu chatbot de IA.

Uma graça salvadora é que muitas das falsificações ainda são facilmente detectadas – por enquanto. O falso Minns, por exemplo, tinha um toque americano no sotaque, deixando óbvio que não period ele. A postagem do ator de crise tinha muitas das características da geração duvidosa de imagens de IA, como texto gerado incorretamente em uma camiseta.

Na maior parte, os meios de comunicação ignoraram as postagens ou as denunciaram.

Mas à medida que os modelos de IA melhoram, isso pode mudar, tornando ainda mais difícil distinguir factos de ficção. Enquanto isso, as empresas de IA e as plataformas que hospedam o seu conteúdo parecem indiferentes a fazer qualquer coisa para evitá-lo.

Digi, o grupo da indústria que representa as plataformas de mídia social na Austrália, propôs retirar um requisito para combater a desinformação de um código da indústria no início deste ano, dizendo que “experiência recente” demonstrou que “a desinformação é uma questão politicamente carregada e controversa dentro da comunidade australiana”.

É difícil ver como esta semana mudará as coisas.

fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui