Oriol Nieto, da Adobe, carregou um pequeno vídeo com algumas cenas e narração, mas sem efeitos sonoros. O modelo de IA analisou o vídeo e o dividiu em cenas, aplicando tags emocionais e uma descrição de cada cena. Então vieram os efeitos sonoros. O modelo de IA captou uma cena com um despertador, por exemplo, e criou automaticamente um efeito sonoro. Identificou uma cena em que o personagem principal (um polvo, neste caso) dirigia um carro e adicionou o efeito sonoro de uma porta se fechando.
Não foi perfeito. O som do alarme não period realista e, em uma cena em que dois personagens estavam se abraçando, o modelo de IA adicionou um farfalhar anormal de roupas que não funcionou. Em vez de editar manualmente, a Adobe usou uma interface conversacional (como ChatGPT) para descrever as alterações. Na cena do carro, não havia som ambiente vindo do carro. Em vez de selecionar manualmente a cena, a Adobe usou a interface de conversação e pediu ao modelo de IA para adicionar um efeito sonoro de carro à cena. Ele encontrou a cena com sucesso, gerou o efeito sonoro e a posicionou perfeitamente.
Esses recursos experimentais não estão disponíveis, mas geralmente fazem parte do pacote da Adobe. Por exemplo, Harmonizarum recurso do Photoshop que coloca automaticamente ativos com cores e iluminação precisas em uma cena, foi mostrado no Sneaks do ano passado. Agora está no Photoshop. Espere que eles apareçam em 2026.
O anúncio da Adobe ocorre poucos meses depois que os dubladores de videogame encerraram uma greve de quase um ano para garantir proteções em torno da IA – as empresas são obrigadas a obter consentimento e fornecer acordos de divulgação quando os desenvolvedores de jogos desejam recriar a voz ou imagem de um dublador por meio da IA. Os dubladores estão se preparando para o impacto que a IA terá nos negócios já há algum tempo, e os novos recursos da Adobe, mesmo que não gerem uma narração do zero, são mais um marcador da mudança que a IA está forçando na indústria criativa.













