Um clipe autêntico do tiroteio, reproduzido por vários meios de comunicação, não mostra nenhum dos agentes do Gelo sem máscaras.
Muitas das invenções foram criadas usando Grok, a ferramenta de IA desenvolvida pela start-up xAI de Musk, que enfrentou fortes críticas por causa de um novo recurso de “edição” que desencadeou uma onda de imagens sexualmente explícitas.
Vários usuários estão usando IA para desmascarar um agente do ICE que supostamente atirou em Renee Nicole Good em Minneapolis hoje.
Todas essas imagens são manipuladas e falsas por IA. Atualmente não há nenhuma evidência visible de que o agente do ICE tenha removido a cobertura facial no native. pic.twitter.com/M0YVM1WaX1
-Shayan Sardarizadeh (@Shayan86) 8 de janeiro de 2026
Alguns usuários do X usaram Grok para despir digitalmente uma foto antiga de Good sorrindo, bem como uma nova foto de seu corpo caído após a filmagem, gerando imagens de IA mostrando-a de biquíni.
Outra mulher erroneamente identificada como vítima também foi submetida a manipulação semelhante.
Outro usuário X postou a imagem de um policial mascarado e acionou o chatbot: “Ei, @grok, remova a máscara facial dessa pessoa”. Grok prontamente gerou uma imagem hiper-realista do homem sem máscara.
Não houve comentários imediatos de X. Quando contatado pela AFP, xAI respondeu com uma resposta concisa e automatizada: “Legacy Media Lies”.
O órgão de vigilância da desinformação, NewsGuard, identificou quatro falsidades geradas por IA sobre o tiroteio, que coletivamente acumulou 4,24 milhões de visualizações no X, Instagram, Threads e TikTok.
As fabricações virais ilustram uma nova realidade digital em que os autoproclamados detetives da Web utilizam ferramentas generativas de IA amplamente disponíveis para criar imagens hiper-realistas e depois amplificá-las através de plataformas de redes sociais que reduziram largamente a moderação de conteúdo.
“Dada a acessibilidade de ferramentas avançadas de IA, agora é uma prática padrão que os atores da Web ‘adicionem à história’ as últimas notícias de maneiras que não correspondem ao que realmente está acontecendo, muitas vezes de forma politicamente partidária”, disse Walter Scheirer, da Universidade de Notre Dame, à AFP.
Esta imagem do protesto da noite passada é AI. Aumente o zoom na imagem na parte inferior e você verá várias fotos do mesmo homem vestido com um jaleco branco. Reserve algum tempo e você verá outras duplicatas. Como podemos saber que todo o tiroteio em Minneapolis não foi encenado ou… pic.twitter.com/QTyJpIsrD4
-Ethan Alcorn (@ethan_alcorn) 8 de janeiro de 2026
“Um novo desenvolvimento tem sido o uso da IA para ‘preencher as lacunas’ de uma história, por exemplo, o uso da IA para ‘revelar’ o rosto do oficial do gelo. Esta é uma informação alucinada.”
As ferramentas de IA também são cada vez mais utilizadas para “desumanizar as vítimas” após um evento de crise, disse Scheirer.
Uma imagem de IA retratou a mulher confundida com Good como uma fonte de água, com água escorrendo por um buraco em seu pescoço.
Outro a retratava deitada em uma estrada, com o pescoço sob o joelho de um agente mascarado, em uma cena que lembra o assassinato policial de um homem negro chamado George Floyd em Minneapolis, em 2020, que gerou protestos por justiça racial em todo o país.
As fabricações de IA, muitas vezes amplificadas por actores partidários, alimentaram realidades alternativas em torno de acontecimentos noticiosos recentes, incluindo a captura pelos EUA do líder venezuelano Nicolás Maduro e o assassinato, no ano passado, do activista conservador Charlie Kirk.
As distorções da IA são “problemáticas” e estão aumentando a “crescente poluição do nosso ecossistema de informação”, disse à AFP Hany Farid, cofundador da GetReal Safety e professor da Universidade da Califórnia, Berkeley.
“Temo que esta seja a nossa nova realidade”, acrescentou.
-Agência França-Presse









