O mais novo Cláudio modelo generativo de IAchamado Haiku 4.5, tem a mesma capacidade de codificação do modelo Sonnet 4 da empresa em um pacote menor e mais rápido, disse a Anthropic em um comunicado à imprensa na quarta-feira. O novo modelo está sendo disponibilizado para todos e será o padrão para usuários gratuitos no Claude.ai.
A Anthropic diz que o Haiku 4.5 é significativamente mais rápido que o Sonnet 4, mas com um terço do custo. Ao usar Claude para Chromeuma extensão que oferece aos usuários do Chrome recursos de IA em seus navegadores, a Anthropic disse que o Haiku 4.5 é mais rápido e melhor em tarefas de agente.
Não perca nenhum de nossos conteúdos técnicos imparciais e análises baseadas em laboratório. Adicionar CNET como fonte preferencial do Google.
Como o Haiku 4.5 é um modelo pequeno, ele pode ser implantado como um subagente do Sonnet 4.5. Assim, enquanto o Sonnet 4.5 planeja e organiza projetos complexos, pequenos subagentes do Haiku podem concluir outras tarefas em segundo plano. Para tarefas de codificação, o Sonnet pode lidar com o pensamento de alto nível, enquanto o Haiku lida com outras tarefas, como refatorações e migrações. Para análise financeira, o Sonnet pode fazer modelagem preditiva enquanto o Haiku monitora fluxos de dados e rastreia mudanças regulatórias, sinais de mercado e riscos de portfólio. Do lado da pesquisa, o Sonnet pode lidar com análises abrangentes enquanto o Haiku revisa a literatura, reúne dados e sintetiza documentos de múltiplas fontes.
A velocidade do Haiku também auxilia no lado do chatbot, lidando com solicitações com mais rapidez.
“Haiku 4.5 é a mais recente iteração do nosso menor modelo e foi construído para todos que desejam inteligência superior, confiabilidade e parceria criativa de Claude em um pacote leve”, disse o CEO da Anthropic, Mike Krieger, em comunicado fornecido à CNET.
Dadas as elevadas despesas para treinar e implementar modelos de IA, as empresas têm procurado formas de implementar modelos mais pequenos, mais eficientes e que ainda apresentem desempenho. Uma consulta de IA consome significativamente mais energia do que uma pesquisa no Google, mas depende do tamanho do modelo de IA. Um grande modelo com mais de 405 bilhões de parâmetros pode consumir 6.706 joules de energiao suficiente para ligar um micro-ondas por oito segundos, de acordo com um relatório do MIT Technology Review. Um modelo pequeno, porém, com oito bilhões de parâmetros, pode consumir apenas 114 joules de energia, o que é como ligar um micro-ondas por um décimo de segundo. Uma pesquisa no Google pode usar 1.080 joules de energia.
Permitir que modelos menores e mais eficientes assumam a carga de consultas mais simples ou tarefas em segundo plano pode economizar significativamente nos custos do servidor. O ChatGPT-5, por exemplo, pode alternar entre modelos, fornecendo respostas instantâneas para questões mais leves e aproveitando mais poder para consultas complexas. São necessárias medidas de poupança de energia, uma vez que as empresas de IA têm de ser capazes de recuperar o potenciais trilhões que serão gastos em investimentos em data centers.