Início Tecnologia O detector de imagens AI do Gemini apenas arranha a superfície. Isso...

O detector de imagens AI do Gemini apenas arranha a superfície. Isso não é bom o suficiente

10
0

 

Quando você pede à IA para se olhar no espelho, ela nem sempre se vê. Essa é a sensação que você tem quando pede para determinar se uma imagem é genuína ou gerada por IA.

 

Na semana passada, o Google tentou nos ajudar a distinguir o real do deepfake, embora extremamente limitado. No aplicativo Gemini, você pode compartilhar uma imagem e perguntar se ela é real, e o Gemini verificará se há um SynthID – uma marca d’água digital – para informar se ela foi criada ou não pelas ferramentas de IA do Google. (Por outro lado, o Google também lançou na semana passada o Nano Banana Pro, seu novo modelo de imagem, que torna ainda mais difícil detectar uma falsificação a olho nu.)

Atlas de IA

 

Dentro deste escopo limitado, a verificação da realidade do Google funciona muito bem. Gemini funciona rapidamente e dirá se algo foi feito pela IA do Google. Nos meus testes, funcionou até na captura de tela de uma imagem. E a resposta é rápida e direta: sim, esta imagem, ou pelo menos mais da metade dela, é falsa.

Mas pergunte sobre uma imagem feita literalmente por qualquer outro gerador de imagens e você não obterá aquela resposta definitiva. O que você obtém é uma revisão das evidências: o modelo procura todos os sinais típicos de que algo é artificial. Neste caso, trata-se basicamente de fazer o que fazemos com os nossos próprios olhos, mas ainda não podemos confiar totalmente nos seus resultados.

Por mais confiável e necessária que seja a verificação SynthID do Google, pedir a um chatbot para avaliar algo que não possui marca d’água é quase inútil. O Google forneceu uma ferramenta útil para verificar a procedência de uma imagem, mas se quisermos confiar novamente em nossos próprios olhos na Internet, cada interface de IA que usarmos deverá ser capaz de verificar imagens de todos os tipos de modelo de IA.

Espero que em breve possamos simplesmente colocar uma imagem, digamos, na Pesquisa Google e descobrir se ela é falsa. Os deepfakes estão ficando bons demais para não terem essa verificação da realidade.

Verificar imagens com chatbots é uma mistura

Há muito pouco a dizer sobre a verificação SynthID do Google. Quando você pede ao Gemini (no aplicativo) para avaliar uma imagem gerada pelo Google, ele sabe o que está vendo. Funciona. Eu gostaria de vê-lo implementado em todos os lugares onde o Gemini aparece – como a versão do navegador e a Pesquisa Google – e de acordo com o Google postagem no blog sobre o recursoisso já está em andamento.

O fato de o Gemini no navegador ainda não ter essa funcionalidade significa que podemos ver como o próprio modelo (sem SynthID) responde quando questionado se uma imagem gerada por IA é real. Pedi à versão para navegador do Gemini que avaliasse um infográfico que o Google forneceu aos repórteres como um folheto mostrando seu novo modelo Nano Banana Pro em ação. Isso foi gerado pela IA – e até mesmo dito em seus metadados. Gemini no aplicativo usou SynthID para descobrir. Gemini no navegador era insosso: dizia que o design poderia ser de IA ou de um designer humano. Ele até disse que sua ferramenta SynthID não encontrou nada que indicasse IA. (Embora quando pedi para tentar novamente, ele disse que encontrou um erro com a ferramenta.) O resultado final? Não poderia dizer.

E quanto a outros chatbots? Fiz o Nano Banana Pro gerar a imagem de um gato de smoking deitado em um tabuleiro de Banco Imobiliário. A imagem, à primeira vista, era plausivelmente realista. Colegas de trabalho desavisados ​​para quem enviei pensaram que era meu gato. Mas se você olhar mais de perto, verá os erros: por exemplo, o conjunto Monopoly não faz sentido – Park Place está em vários lugares errados e as cores estão erradas.

 

Uma imagem gerada por IA de um gato de smoking preto e branco deitado em um tabuleiro de Banco Imobiliário em uma sala de estar.

 

Este não é um gato de verdade ou um tabuleiro de jogo de Banco Imobiliário de verdade. A imagem foi gerada pelo modelo de imagem Nano Banana Pro AI do Google.

 

Criado por Jon Reed usando Gemini AI

Perguntei a vários chatbots e modelos de IA se a imagem era gerada por IA e as respostas estavam espalhadas.

Gemini no meu telefone descobriu instantaneamente usando o verificador SynthID. Gemini 3, o modelo de raciocínio de nível superior lançado esta semana, ofereceu uma análise detalhada mostrando por que foi gerado por IA. Gemini 2.5 Flash (o modelo padrão que você obtém ao escolher “Rápido”) adivinhou que era uma fotografia real com base no nível de detalhe e realismo. Tentei o ChatGPT duas vezes em dois dias diferentes e ele me deu duas respostas diferentes, uma com uma extensa explicação de como é obviamente real e outra com uma dissertação igualmente longa sobre por que é falso. Claude, usando os modelos Haiku 4.5 e Sonnet 4.5, disse que parecia real.

Quando testei imagens geradas por ferramentas de IA que não são do Google, os chatbots fizeram suas avaliações com base na qualidade da geração. Imagens com sinais mais óbvios – por exemplo, iluminação incompatível e texto mal renderizado – foram detectadas de forma mais confiável como IA. Mas o tema era inconsistência. Na verdade, não foi mais preciso do que apenas dar uma olhada profunda e crítica com meus próprios olhos. Isso não é bom o suficiente.

O futuro da detecção de IA

A mais nova ferramenta do Google traça um caminho potencial a seguir, mesmo que vá apenas até certo ponto. Sim, uma solução para o problema crescente dos deepfakes é poder verificar uma imagem em um aplicativo de chatbot. Mas precisa funcionar para mais imagens e mais aplicativos.

Não deve ser necessário conhecimento especial para detectar uma falsificação. Você não deveria ter que encontrar um aplicativo personalizado, analisar metadados ou saber imediatamente quais erros podem indicar uma imagem gerada por IA. Como vimos pela melhoria drástica nos modelos de imagem e vídeo nos últimos meses, essas indicações podem ser infalíveis hoje e inúteis amanhã.

Leia mais: O Nano Banana Pro do Google cria imagens de IA ultrarrealistas. Isso me assusta muito

Se você encontrar uma imagem na internet e tiver dúvidas sobre ela, você poderá ir ao Gemini, ou Google Search, ou ChatGPT, ou Claude, ou qualquer ferramenta que você escolher, e fazer uma varredura em busca de uma marca d’água digital universal e difícil de remover. O trabalho nesse sentido está acontecendo através do Coalizão para Proveniência e Autenticação de Conteúdoou C2PA. O resultado deve ser algo que facilite a verificação por pessoas comuns, sem a necessidade de um aplicativo ou conhecimento especial. Deve estar disponível em algo que você usa todos os dias. E quando você pergunta à IA, ela deve saber onde procurar.

Não deveríamos ter que adivinhar o que é real e o que não é. As empresas de IA têm a responsabilidade de nos fornecer uma verificação da realidade universal e infalível. Talvez este seja um caminho a seguir.

avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui