Há um alto custo de energia para a IA generativa. Mas mesmo a enorme quantidade de energia necessária para treinar e operar os grandes modelos de linguagem é insignificante em comparação com o que é necessário para executar os modelos de vídeo por trás de ferramentas como Aplicativo viral Sora da OpenAIque estão inundando nossos feeds de mídia social com clipes falsos e bobos.
Os modelos generativos de IA, em geral, requerem muita energia para serem alimentados. Os servidores que executam sua consulta ChatGPT usam um processo de uso intensivo de computação que requer muita eletricidade para manutenção. IA é o “maior impulsionador” do uso de eletricidade na América do Norte, descobriu um relatório. E isso pode estar aparecendo na sua conta de luz, com Datacenters de IA surgindo em todos os EUA, aumentando as contas de luz de domicílios próximos. Algumas estimativas dizem que uma consulta de IA usa 10 vezes mais energia do que uma simples pesquisa no Google.
Embora as grandes empresas de IA ainda hesitem em detalhar exatamente quanto é necessário para treinar e executar modelos de IA, há um campo crescente de pesquisa em busca de respostas. Sasha Luccioni, líder de IA e clima da Hugging Face – uma das plataformas de IA e centros de pesquisa mais populares – é uma pesquisadora líder que estuda as demandas energéticas da inteligência synthetic. Em um novo estudo, Luccioni e sua equipe examinaram vários modelos de vídeo de IA de código aberto. (Ferramentas de vídeo populares como Sora e Veo 3 do Google não foram incluídos no estudo porque não são de código aberto.)
A equipe usou a base de código Hugging Face de código aberto e criou vídeos de IA com uma variedade de modelos. Eles mediram a quantidade de eletricidade necessária para criar esses clipes à medida que alteravam diferentes fatores, incluindo tornar os vídeos mais longos, com maior resolução e maior qualidade (algo conseguido através de um processo chamado remoção de ruído). Eles executaram o teste usando uma GPU Nvidia H100 SXM, um chip de computador de alta potência que pode ser usado em datacenters de IA.
“A geração de vídeo é definitivamente uma tarefa mais intensiva em termos computacionais – em vez de palavras, você está gerando pixels, e há vários quadros por segundo para fazer os vídeos fluírem bem”, disse Luccioni por e-mail. “É complexo.”
Faça um vídeo de IA com 10 segundos de duração e 240 quadros por segundo. São 240 imagens que a IA precisa gerar, explica Luccioni. Especialmente para conteúdo de alta dimensão, “Isso realmente contribui em termos de poder e energia computacional”, disse ela.
Uso de energia de vídeo de IA
O estudo descobriu que a difusão de vídeo é 30 vezes mais cara em termos de energia gasta do que a geração de imagens e 2.000 vezes mais cara do que a geração de texto. A criação de um único vídeo de IA utiliza aproximadamente 90 Watts-hora, em comparação com os 2,9Wh necessários para geração de imagem e 0,047Wh para geração de texto.
Para contextualizar esses números, uma lâmpada LED com eficiência energética média consome entre 8 e 10 watts. Televisores LCD pode usar entre 50-200 wattscom tecnologias mais recentes como OLED ajudando a executá-los com mais eficiência. Por exemplo, o Samsung S95F de 65 polegadas, a escolha da CNET para o melhor qualidade de imagem de 2025normalmente consome 146 W, de acordo com a Samsung. Portanto, criar um vídeo de IA seria equivalente a ligar esta TV por 37 minutos.
As exigências energéticas da IA generativa, especialmente para vídeo, são significativas. Isso prepara o terreno para um enorme problema à medida que a IA se torna mais amplamente utilizada.
Assista isto: O impacto oculto do growth do information middle de IA
Aumento das demandas de energia da IA
O vídeo generativo está passando por um momento inovador. Isso se deve principalmente ao Google e ao fabricante do ChatGPT, OpenAI. Veo 3 e Sora, os modelos de vídeo de IA das empresas, respectivamente, foram lançados com muito alarde e desde então se tornaram virais. O aplicativo Sora tinha mais de um milhão de downloads cinco dias após seu lançamento, e o Google disse que os usuários do Gemini fizeram mais de 40 milhões de vídeos nos primeiros meses após sua estreia.
À medida que o uso da IA cresce, a rede elétrica dos EUA pode não estar preparado para lidar com a demanda futura. É por isso que as empresas de IA e o governo dos EUA estão a defender um esforço de mil milhões de dólares para a infra-estrutura de IA. A Nvidia anunciou recentemente que é investindo US$ 100 bilhões em OpenAI para construir datacenters de IA que visam produzir 10 gigawatts em sistemas Nvidia nos próximos anos. Microsoft e Constellation Power são considerando reabrir Three Mile Island – o native do pior desastre da central nuclear dos EUA – para alimentar as suas ambições de IA. Mas existem outras formas de atenuar as exigências energéticas da IA, incluindo a utilização de uma infraestrutura de IA mais eficiente.
Individualmente, podemos pensar criticamente sobre se precisamos ou não usar uma ferramenta de IA. Você nem sempre precisa – ou possivelmente deseja – de um resumo de IA toda vez que procura algo, disse Luccioni, e o uso de navegadores alternativos pode ajudar com isso. Mas parte do problema é que as empresas de IA não são transparentes sobre as especificidades das exigências energéticas dos seus produtos.
“As empresas de IA devem ser transparentes sobre os seus impactos ambientais… É inaceitável que, para as ferramentas que usamos todos os dias, não tenhamos os números precisos”, disse Luccioni. “Como utilizadores, devemos ter as informações de que necessitamos para tomar decisões sustentáveis, e as empresas têm a responsabilidade de nos fornecer essas informações.”













