O CEO da Nvidia, Jensen Huang, disse na segunda-feira que a próxima geração de chips da empresa está em “plena produção”, dizendo que eles podem fornecer cinco vezes a computação de inteligência synthetic dos chips anteriores da empresa ao servir chatbots e outros aplicativos de IA.
Num discurso no Client Electronics Present em Las Vegas, o líder da empresa mais valiosa do mundo revelou novos detalhes sobre os seus chips, que chegarão ainda este ano e que os executivos da Nvidia estão nos laboratórios da empresa a serem testados por empresas de IA, à medida que a Nvidia enfrenta a concorrência crescente de rivais, bem como dos seus próprios clientes.
A plataforma Vera Rubin, composta por seis chips Nvidia separados, deve ser lançada ainda este ano, com o servidor principal contendo 72 unidades gráficas da empresa e 36 de seus novos processadores centrais.
Huang mostrou como eles podem ser agrupados em “pods” com mais de 1.000 chips Rubin e disse que eles poderiam melhorar a eficiência da geração do que é conhecido como “tokens” – a unidade basic dos sistemas de IA – em 10 vezes.
Para obter os novos resultados de desempenho, no entanto, Huang disse que os chips Rubin usam um tipo de dados proprietários que a empresa espera que a indústria em geral adote.
“Foi assim que conseguimos oferecer um avanço tão gigantesco no desempenho, apesar de termos apenas 1,6 vezes o número de transistores”, disse Huang.
Embora a Nvidia ainda domine o mercado de modelos de IA de treinamento, ela enfrenta muito mais concorrência – de rivais tradicionais como a Superior Micro Gadgets, bem como de clientes como o Google, da Alphabet – na entrega dos frutos desses modelos a centenas de milhões de usuários de chatbots e outras tecnologias.
Grande parte do discurso de Huang se concentrou em quão bem os novos chips funcionariam para essa tarefa, incluindo a adição de uma nova camada de tecnologia de armazenamento chamada “armazenamento de memória de contexto”, destinada a ajudar os chatbots a fornecer respostas mais rápidas a longas perguntas e conversas.
A Nvidia também anunciou uma nova geração de switches de rede com um novo tipo de conexão chamada óptica co-embalada. A tecnologia, que é basic para unir milhares de máquinas em uma só, compete com ofertas da Broadcom e da Cisco Techniques.
Em outros anúncios, Huang destacou um novo software program que pode ajudar os carros autônomos a tomar decisões sobre qual caminho seguir – e deixar um rastro de papel para os engenheiros usarem posteriormente. A Nvidia mostrou uma pesquisa sobre software program, chamada Alpamayo, no last do ano passado, com Huang dizendo na segunda-feira que seria divulgado de forma mais ampla, junto com os dados usados para treiná-lo para que as montadoras possam fazer avaliações.
“Não apenas abrimos o código-fonte dos modelos, mas também abrimos o código-fonte dos dados que usamos para treinar esses modelos, porque somente dessa forma você pode realmente confiar em como os modelos surgiram”, disse Huang em um palco em Las Vegas. No mês passado, a Nvidia adquiriu talentos e tecnologia de chips da startup Groq, incluindo executivos que foram fundamentais para ajudar o Google, da Alphabet, a projetar seus próprios chips de IA.
Embora o Google seja um grande cliente da Nvidia, seus próprios chips surgiram como uma das maiores ameaças da Nvidia, à medida que o Google trabalha em estreita colaboração com a Meta Platforms e outras para diminuir a liderança da empresa.
Durante uma sessão de perguntas e respostas com analistas financeiros após seu discurso, Huang disse que o acordo com a Groq “não afetará nosso negócio principal”, mas poderá resultar em novos produtos que expandam sua linha. Ao mesmo tempo, a Nvidia está ansiosa para mostrar que seus produtos mais recentes podem superar os chips mais antigos, como o H200, que Donald Trump permitiu que fosse enviado para a China.
O chip, que foi o antecessor do atual chip “Blackwell” da Nvidia, é muito procurado na China, o que alarmou os falcões chineses em todo o espectro político dos EUA.











