A ameaça de que tais falsificações possam confundir e enganar as pessoas à medida que as notícias surgem tem pairado sobre as ferramentas desde que ganharam ampla popularidade.
A tecnologia tornou-se agora suficientemente avançada e common o suficiente para tornar essa ameaça uma realidade.
Jeanfreddy Gutierrez, que dirige uma operação de verificação de fatos em Caracas, capital da Venezuela, mas está baseado na Colômbia, percebeu as imagens falsas de Maduro se espalhando no dia em que sua prisão foi anunciada.
Ele disse que algumas imagens circularam pelos meios de comunicação latino-americanos antes de serem discretamente trocadas por uma imagem compartilhada pelo presidente dos EUA, Donald Trump. Gutierrez publicou uma verificação de fatos que identificou várias imagens falsas de Maduro, incluindo uma que “mostrava sinais claros” de que foi feita pelo Gemini, o aplicativo de IA do Google.
“Eles se espalharam tão rápido – eu os vi em quase todos os contatos do Fb e WhatsApp que tenho”, disse ele.
A NewsGuard, empresa que rastreia a confiabilidade das informações on-line, rastreou cinco imagens fabricadas e fora de contexto e dois vídeos deturpados ligados à captura de Maduro.
Ele disse que o conteúdo obteve coletivamente mais de 14,1 milhões de visualizações na plataforma social X em menos de dois dias. O conteúdo também apareceu, com envolvimento mais limitado, em plataformas Meta, incluindo Instagram e Fb.
Após a prisão de Maduro, o Tempos testou uma dúzia de geradores de IA para determinar quais ferramentas criariam imagens falsas de Maduro.
A maioria das ferramentas, incluindo Gemini e modelos OpenAI e X, criaram rapidamente as imagens solicitadas.
As falsificações minaram as garantias de muitas empresas de tecnologia de que criaram salvaguardas para evitar o abuso das ferramentas.
O Google tem regras que proíbem os usuários de gerar informações falsas e proíbe especificamente conteúdo enganoso que esteja “relacionado a processos governamentais ou democráticos”.
Um porta-voz do Google disse que a empresa não proíbe categoricamente imagens de pessoas importantes e que uma imagem falsa mostrando Maduro sendo preso, gerada em testes pelo Tempos não violou suas regras.
O porta-voz acrescentou que a empresa se concentrou na sua marca d’água oculta, chamada SynthID, que a Gemini incorpora em cada imagem que cria, permitindo que as pessoas determinem se ela foi feita por sua ferramenta de IA.
“Você pode simplesmente fazer add de uma imagem para o aplicativo Gemini e confirmar instantaneamente se ela foi gerada usando a IA do Google”, disse ele.
A ferramenta da OpenAI, ChatGPT, disse que não poderia criar imagens de Maduro. Mas quando o Tempos consultado por meio de outro web site que utiliza o mesmo modelo do ChatGPT, cedeu e produziu as imagens.
Em comunicado enviado por e-mail, um porta-voz da OpenAI disse que a empresa usa salvaguardas para proteger figuras públicas, mas se concentra na prevenção de danos, incluindo deepfakes sexuais ou violência.
Grok, o modelo de X.ai, produziu imediatamente imagens realistas da prisão de Maduro.
Grok está sob forte escrutínio, inclusive na semana passada, quando vigilantes relataram que estava respondendo a pedidos para remover roupas de imagens de crianças.
A conta de Grok postou que sua equipe identificou “lacunas nas salvaguardas” e que as estava “corrigindo urgentemente”.
X.ai não respondeu a um pedido de comentário.
Outras ferramentas, incluindo o chatbot Meta AI do Fb e o Flux.ai, responderam criando imagens que mostravam um homem com bigode sendo preso, mas não retratavam com precisão as características de Maduro.
Quando solicitado a criar uma representação mais realista do presidente deposto, o chatbot do Meta respondeu: “Não consigo gerar isso”.
Meta se recusou a comentar.
Junto com ferramentas populares criadas por gigantes da tecnologia, há uma variedade crescente de geradores de imagens menos conhecidos criados por outras empresas de IA.
Muitas dessas ferramentas têm poucas proteções, permitindo que criadores de memes e ativistas criem falsificações de IA visando políticos, celebridades e outras pessoas notáveis.
Em testes do Temposferramentas como Z-Picture, Reve e Seedream responderam criando imagens realistas de Maduro sendo preso fora de um avião militar.
As ferramentas geradoras de inteligência synthetic estão mais acessíveis do que nunca, disse Marivi Marín, diretora da ProboxVE, uma organização sem fins lucrativos que analisa ecossistemas digitais na América Latina.
Ela escreveu em um texto que os deepfakes de Maduro que surgiram no fim de semana, a maioria deles antes da divulgação de uma foto oficial, foram uma resposta a “uma necessidade coletiva de preencher ‘a imagem perfeita’ de um momento que cada venezuelano imagina de forma um pouco diferente”, como uma espécie de “reação à urgência de preencher essa lacuna visible”. [with real or unreal content] o mais rápido possível”.
A Venezuela está entre os países mais restritivos do mundo em termos de liberdade de imprensa, com fontes de comunicação social limitadas, o que dificulta a obtenção de informações fiáveis. No vácuo noticioso, a desconfiança gerada pelos deepfakes é exacerbada.
Gutierrez disse que muitas pessoas duvidam que a imagem de Maduro postada por Trump seja autêntica.
“É engraçado, mas muito comum: duvidar da verdade e acreditar na mentira”, disse ele.
Verificadores de fatos latino-americanos, como Gutierrez, disseram que foram estimulados por vídeos e imagens sintéticas anteriores de Trump e do ex-presidente Joe Biden para ficarem atentos a deepfakes de figuras públicas.
E desde a pandemia, grupos de verificação de factos em toda a região têm colaborado para combater rumores transfronteiriços e teorias de conspiração que surgem durante conflitos e eleições internacionais.
“Foi preciso muito trabalho, porque sempre perdemos a batalha para convencer as pessoas da verdade”, disse Gutiérrez.
Este artigo apareceu originalmente em O jornal New York Times.
Escrito por: Stuart A. Thompson e Tiffany Hsu
Fotografia por: Vincent Alban
©2025 THE NEW YORK TIMES









