Se você navegou pelas redes sociais recentemente e pensou “isso parece estranho”, você não está imaginando coisas. A web está se enchendo de algo chamado Resíduos de IA – uma onda de conteúdo lixo produzido por máquinas que é barato, infinito e difícil de escapar.
O termo começou como uma gíria on-line há alguns anos, mas rapidamente se tornou uma abreviação para a crescente enxurrada de palavras de baixo esforço. Gerado por IA materials. Pense nisso como spam para a period da mídia social. Golpes de e-mail ruins foram substituídos por postagens de weblog insípidas, clipes de notícias falsas, vídeos e fotos surreais que, francamente, nunca deveriam ver a luz do dia.
Não perca nenhum de nossos conteúdos técnicos imparciais e análises baseadas em laboratório. Adicionar CNET como fonte preferencial do Google.
O que o desperdício de IA realmente significa
Slop usado para descrever ração animal feita com sobras. No contexto de hoje, captura a mesma sensação de enchimento barato. O desperdício de IA é o conteúdo gerado de forma rápida e descuidada, sem originalidade ou precisão factual.
Você encontrará resíduos de IA em todas as plataformas, desde Vídeos do YouTube com narração robótica sobre imagens roubadas, até websites de “notícias” que copiam artigos escritos por IA uns dos outros e clipes do TikTok com vozes que se assemelham Siri tentando parecer humano. Até os resultados da pesquisa estão começando a parecer mais desleixados, com Instruções geradas por IA e avaliações de produtos acima dos relatórios legítimos de clientes.
O problema não é que a IA seja inerentemente ruim na criação. Acontece que muitas pessoas o utilizam para inundar a Web com conteúdo que parece informativo, mas não é. Até John Oliver dedicou um segmento inteiro ao lixo de IA em seu programa.
Sean King O’Gradyo criador da série documental Mentes Suspeitas e um cineasta premiado, deu-me alguma esperança nas gerações mais jovens. Seu filho de 10 anos deu uma olhada em um Sora hiper-real clipe de Marc Cuban que O’Grady criou e imediatamente o chamou de falso e disse: “Tire essa sujeira de IA da minha cara.”
Mas em alguns casos, a IA é muito boa e engana as pessoas com confiança. Esse conteúdo é compartilhado, republicado e monetizado antes que alguém verifique se é actual, como muitas vezes vimos nas redes sociais.
Como o lixo de IA difere de deepfakes e alucinações
O desperdício de IA não é o mesmo que um deepfake ou um alucinaçãoembora os três muitas vezes fiquem confusos. A diferença é intenção e qualidade.
Deepfakes são falsificações de precisão que usam IA para gerar ou alterar vídeo e áudio realistas, fazendo alguém parecer estar fazendo ou dizendo algo que nunca fez. O objetivo é o engano, desde discursos políticos falsos para clones de voz usados em golpes. Os deepfakes têm como alvo indivíduos, e seu perigo reside em quão convincentes eles podem ser.
As alucinações de IA são erros técnicos. Um chatbot pode citar um estudo que não existe ou inventar um caso jurídico do nada. O modelo não está tentando enganar – as alucinações acontecem quando ele prevê a próxima palavra provável e erra.
O desperdício de IA é mais amplo e descuidado. Acontece quando as pessoas usam IA para produzir conteúdo em massa, como artigos, vídeos, música e arte, sem verificar a precisão ou a coerência. Ele obstrui os feeds, aumenta a receita publicitária e preenche os resultados da pesquisa com materials repetitivo ou sem sentido. Sua imprecisão vem da negligência, não do engano ou do erro.
Em suma, os deepfakes enganam propositalmente, as alucinações são fabricadas por acidente e os resíduos de IA inundam a Web por indiferença, muitas vezes alimentados pela ganância por dinheiro rápido.
Minha sugestão para criar esta imagem no Grok foi: “faça uma imagem de um close-up fotorrealista de uma tigela de macarrão feito de gelatina, com ursinhos de goma em vez de carne e um pato de plástico flutuando nela, em uma sala mal iluminada, de outra forma vazia, com bordas borradas e uma paleta de cores estranha e pouco apetitosa.”
De onde vem todo o desperdício de IA?
Parte da razão pela qual a IA se espalhou tão rapidamente é que a tecnologia de IA se tornou poderosa e barata. As empresas de IA criaram esses modelos na esperança de que isso reduzisse a barreira de entrada para pessoas que têm grandes ideias, mas não têm talento ou recursos financeiros para criar coisas. O que acabou acontecendo é que as pessoas estão pedindo às ferramentas de IA que produzam textos e imagens aos milhares para cliques ou receita de anúncios.
É um jogo de quantity. Se um vídeo tiver um bom desempenho, mais vídeos parecidos com ele serão criados, e acabaremos com confusão digital e iterações on-line estranhas.
Uma vez que ferramentas como Bate-papoGPT, Gêmeos e Cláudio tornou possível gerar textos, imagens e vídeos legíveis em segundos, especialmente com os mais recentes Geradores de IA como Sora e Veo – as fazendas de conteúdo entraram em ação. Eles perceberam que poderiam preencher websites, feeds sociais e YouTube com conteúdo de IA mais rápido do que qualquer equipe humana poderia escrever, editar ou filmar.
Por exemplo, apesar de ter apenas quatro vídeos, este canal do YouTube acumulou 4,2 milhões de inscritos e centenas de milhões de visualizações:
As plataformas também desempenharam um papel. Os algoritmos geralmente recompensam a quantidade e o envolvimento, não a qualidade. Quanto mais você posta, mais atenção você chama, mesmo que o que você poste seja um disparate (mukbang muito?). A IA torna trivial dimensionar essa estratégia.
Também há dinheiro envolvido. Alguns criadores divulgam notícias falsas de celebridades ou vídeos clickbait cheios de anúncios. Outros redirecionam o conteúdo de IA para enganar recomendações e direcionar tráfego para websites de baixo esforço. O objetivo não é informar ou entreter. É ganhar uma fração de centavo por visualização, multiplicado por milhões.
O’Grady observou a evolução dos resíduos de IA ao longo dos anos, mas diz: “A novidade de grande parte desses novos resíduos também desaparecerá extremamente rapidamente”.
Como a desleixo da IA está arruinando a Web
À primeira vista, o lixo parece inofensivo – algumas postagens ruins em seu feed e talvez você dê uma ou duas risadas com isso. Mas o quantity muda tudo e cansa o público. À medida que mais lixo circula, ele empurra fontes confiáveis para baixo nos resultados de pesquisa e exclui criadores humanos. Também confunde a linha entre a verdade e a invenção. Quando metade do que você vê parece uma simulação, é mais difícil confiar no resto.
Outro dia, outra imagem gerada por IA de uma vítima do furacão Helene está circulando.
Os sinais reveladores incluem o brilho não pure, um barco verde desaparecendo e um homem com um membro aparentemente perdido no fundo. pic.twitter.com/7B6ABz4DeX-Olga Robinson (@O_Rob1nson) 3 de outubro de 2024
Essa erosão da confiança tem consequências reais. A desinformação espalha-se mais rapidamente quando ninguém sabe o que é actual. Golpistas usam IA como arma para construir marcas falsas convincentes ou se passar por pessoas e até mesmo funcionários. Os anunciantes estão lutando porque suas campanhas às vezes aparecem junto com recursos de IA em plataformas como o YouTube, prejudicando a credibilidade da marca por associação.
Há um custo cultural mais profundo. O’Grady vê um longo período de dormência on-line, dando o exemplo de Bob Ross dando um soco em Stephen Hawking.
“Acho que a web, de uma forma estranha, insensibilizou todos nós para a violência de uma forma horrível”, disse ele à CNET. “Eu me pergunto o que isso diz sobre a nossa humanidade quando mashups violentos ou grotescos de IA se tornam virais?”
A ideia de para onde estamos indo como cultura e o que fazemos com essas ferramentas assusta O’Grady mais do que pensar nas consequências econômicas da IA generativa vídeos.
O que podemos fazer a respeito do desperdício de IA?
Ninguém tem uma solução perfeita ainda, mas algumas empresas estão tentando. Plataformas como Spotify começou a rotular mídia gerada por IA e ajustar algoritmos para rebaixar a produção de baixa qualidade. Google, TikTok e OpenAI prometeram sistemas de marca d’água para ajudá-lo a diferenciar o conteúdo humano do materials sintético. Embora esses métodos ainda sejam fáceis de evitar se alguém capturar uma imagem, recodificar o vídeo ou reescrever o texto da IA.
Algumas das correções dependem de uma estrutura chamada C2PAabreviação de Coalizão para Proveniência e Autenticidade de Conteúdo. É um padrão da indústria apoiado por empresas como Adobe, Amazon, Microsoft e meta que incorpora metadados diretamente em arquivos digitais para mostrar quando e como eles foram criados e editados.
Se funcionar conforme o esperado, o C2PA o ajudará a rastrear se uma imagem, vídeo ou artigo veio de uma fonte humana verificada ou de um gerador de IA. O desafio é a adoção, uma vez que os metadados podem ser eliminados ou ignorados e a maioria das plataformas não os aplica de forma consistente.
O’Grady é cético apenas em relação aos rótulos, preocupado que mesmo vídeos autênticos de eventos graves, como um político cometendo um crime, possam ser facilmente descartados como falsos com uma marca d’água de IA falsa.
“Posso estar pessimista neste aspecto, mas não creio que a rotulagem vá fazer muita coisa”, diz ele. “Acho que as marcas d’água também poderiam ser usadas para desautenticar coisas que eram autenticamente reais.”
Os criadores também estão reagindo à sua própria maneira. Muitos jornalistas e artistas enfatizam a arte humana. Alguns escritores incluem uma nota simples, “nenhuma IA foi usada”, para garantir aos leitores que foi uma pessoa, e não um immediate, que fez o trabalho.
O desperdício de IA pode ser interrompido?
Provavelmente não completamente. Quando a produção em massa de palavras e imagens se tornou quase gratuita e bastante fácil, as comportas abriram-se. A IA não se preocupa com verdade, sabor ou originalidade. Ele se preocupa com a probabilidade. E é exatamente isso que torna o lixo tão fácil de fazer e tão difícil de escapar.
Mas trazer consciência ajuda. As pessoas estão aprendendo a identificar padrões, as mesmas frases (“tapeçaria”, “na period de”, “não apenas, mas também”, são algumas das mais comuns), a mesma linguagem vazia que parece humana, mas parece vazia.
No entanto, as ferramentas de IA estão a avançar rapidamente e qualquer modelo de IA que esteja actualmente disponível é o pior que alguma vez será.
O custo cognitivo é actual. “Acho que tudo isso provavelmente é muito ruim para o seu cérebro, da mesma forma que a junk meals”, diz O’Grady. “Sua mente é o que você coloca nela. Se é o que consumimos o dia todo, porque é tudo o que existe, acho que isso é muito perigoso.”
Em vez de levar à prevista “tecno-utopia galáctica”, como O’Grady a chama, ou à singularidade onde as consciências se fundem, ele diz que a tendência precise da IA sugere que o nosso futuro poderá ser apenas um universo interminável e sem sentido de memes de Bob Ross, “camarão Jesus” e outras porcarias absurdas.
Por enquanto, a melhor defesa é a nossa atenção. Slop prospera com a automação e com a rolagem ou compartilhamento sem pensar – algo que todos nós somos culpados de fazer. Diminua a velocidade, verifique as fontes, recompense os criadores que ainda se esforçam de verdade. Pode não resolver essa bagunça da noite para o dia, mas é um começo.
A web já esteve aqui antes. Lutamos contra spam, clickbait, desinformação e desinformação. O AI slop é a próxima versão da mesma história, mais rápida e mais inteligente, mas mais difícil de detectar. A integridade da internet depende do quanto ainda valorizamos o trabalho humano em detrimento do resultado da máquina.










