Eugênio Mymrin | Momento | Imagens Getty
Todos os dispositivos de computação requerem uma peça chamada memória, ou RAM, para armazenamento de dados de curto prazo, mas este ano não haverá componentes essenciais suficientes para atender à demanda mundial.
Isso porque empresas como Nvidia, Microdispositivos avançados e Google precisam de muita RAM para seus chips de inteligência synthetic, e essas empresas são as primeiras na fila para os componentes.
Três fornecedores principais de memória – MícronSK Hynix e Samsung Electronics — representam quase todo o mercado de RAM e seus negócios estão se beneficiando do aumento da demanda.
“Vimos um aumento muito acentuado e significativo na demanda por memória, e isso ultrapassou em muito nossa capacidade de fornecer essa memória e, em nossa estimativa, a capacidade de fornecimento de toda a indústria de memória”, disse o chefe de negócios da Micron, Sumit Sadana, à CNBC esta semana na feira CES em Las Vegas.
As ações da Micron subiram 247% em relação ao ano passado, e a empresa informou que o lucro líquido quase triplicou no trimestre mais recente. A Samsung disse esta semana que espera que seu lucro operacional no trimestre de dezembro também quase triplique. Enquanto isso, a SK Hynix está considerando uma listagem nos EUA, à medida que o preço de suas ações na Coreia do Sul aumenta e, em outubro, a empresa disse que havia garantido a demanda. para toda a sua capacidade de produção de RAM em 2026.
Agora, os preços da memória estão subindo.
TrendForce, um pesquisador com sede em Taipei que cobre de perto o mercado de memória, disse esta semana que espera que os preços médios da memória DRAM aumentem entre 50% e 55% neste trimestre em relação ao quarto trimestre de 2025. O analista da TrendForce, Tom Hsu, disse à CNBC que tipo de aumento nos preços da memória foi “sem precedentes”.
Base de três para um
Fabricantes de chips como a Nvidia cercam a parte do chip que faz a computação – a unidade de processamento gráfico, ou GPU – com vários blocos de um componente rápido e especializado chamado memória de alta largura de banda, ou HBM, disse Sadana. A HBM costuma ser visível quando os fabricantes de chips mostram seus novos chips. A Micron fornece memória para Nvidia e AMD, os dois principais fabricantes de GPU.
A GPU Rubin da Nvidia, que entrou recentemente em produção, vem com até 288 gigabytes de memória HBM4 de próxima geração por chip. O HBM está instalado em oito blocos visíveis acima e abaixo do processador, e essa GPU será vendida como parte de um rack de servidor único chamado NVL72, que combina apropriadamente 72 dessas GPUs em um único sistema. Em comparação, os smartphones normalmente vêm com 8 ou 12 GB de memória DDR de menor potência.
O fundador e CEO da Nvidia, Jensen Huang, apresenta a GPU Rubin e a CPU Vera enquanto fala durante o Nvidia Dwell na CES 2026, antes do Shopper Electronics Present anual em Las Vegas, Nevada, em 5 de janeiro de 2026.
Patrick T. Fallon | AFP | Imagens Getty
Mas a memória HBM necessária aos chips de IA é muito mais exigente do que a RAM usada nos laptops e smartphones dos consumidores. O HBM foi projetado para especificações de alta largura de banda exigidas por chips de IA e é produzido em um processo complicado em que a Micron empilha de 12 a 16 camadas de memória em um único chip, transformando-o em um “cubo”.
Quando a Micron fabrica um bit de memória HBM, ela tem que abrir mão de fabricar três bits de memória convencional para outros dispositivos.
“À medida que aumentamos a oferta de HBM, sobra menos memória para a parte do mercado que não é HBM, devido a esta base de três para um”, disse Sadana.
Hsu, analista da TrendForce, disse que os fabricantes de memória estão favorecendo servidores e aplicativos HBM em detrimento de outros clientes porque há maior potencial de crescimento na demanda, pois os negócios e os provedores de serviços em nuvem são menos sensíveis ao preço.
Em dezembro, a Micron disse que iria descontinuar uma parte de seus negócios que visava fornecer memória para fabricantes de PCs de consumo, para que a empresa pudesse economizar fornecimento de chips e servidores de IA.
Alguns membros da indústria de tecnologia estão maravilhados com o quanto e com que rapidez o preço da RAM para os consumidores aumentou.
Dean Beeler, cofundador e chefe de tecnologia da Juice Labs, disse que, há alguns meses, carregou seu computador com 256 GB de RAM, a quantidade máxima que as placas-mãe atuais suportam. Isso lhe custou cerca de US$ 300 na época.
“Quem diria que isso acabaria custando cerca de US$ 3.000 em RAM apenas alguns meses depois”, ele postou no Facebook na segunda-feira.
‘Parede da memória’
Os pesquisadores de IA começaram a ver a memória como um gargalo pouco antes O ChatGPT da OpenAI chegou ao mercado no final de 2022 disse o cofundador do Majestic Labs Sha Rabii um empresário que anteriormente trabalhou com silício no Google e meta.
Os sistemas anteriores de IA foram projetados para modelos como redes neurais convolucionais, que requerem menos memória do que grandes modelos de linguagem, ou LLMs, que são populares hoje, disse Rabii.
Embora os próprios chips de IA estejam ficando muito mais rápidos, a memória não, disse ele, o que faz com que GPUs poderosas esperem para obter os dados necessários para executar LLMs.
“Seu desempenho é limitado pela quantidade de memória e pela velocidade da memória que você possui, e se você continuar adicionando mais GPUs, não será uma vitória”, disse Rabii.
A indústria de IA se refere a isso como “parede da memória”.
Erik Isakson | Visão digital | Imagens Getty
“O processador passa mais tempo girando os polegares, esperando pelos dados”, disse Sadana da Micron.
Memória maior e mais rápida significa que os sistemas de IA podem executar modelos maiores, atender mais clientes simultaneamente e adicionar “janelas de contexto” que permitem que chatbots e outros LLMs se lembrem de conversas anteriores com usuários, o que adiciona um toque de personalização à experiência.
O Majestic Labs está projetando um sistema de IA para inferência com 128 terabytes de memória, ou cerca de 100 vezes mais memória do que alguns sistemas de IA atuais, disse Rabii, acrescentando que a empresa planeja evitar a memória HBM em favor de opções de custo mais baixo. Rabii disse que a RAM adicional e o suporte à arquitetura no design permitirão que seus computadores suportem significativamente mais usuários ao mesmo tempo do que outros servidores de IA, usando menos energia.
Esgotado para 2026
Wall Street tem perguntado às empresas do setor de eletrônicos de consumo, como Maçã e Tecnologias Dellcomo irão lidar com a escassez de memória e se poderão ser forçados a aumentar os preços ou reduzir as margens. Hoje em dia, a memória representa cerca de 20% dos custos de hardware de um laptop, disse Hsu. Isso representa um aumento entre 10% e 18% no primeiro semestre de 2025.
Em outubro, o chefe financeiro da Apple, Kevan Parekh, disse a analistas que sua empresa estava vendo um “leve vento favorável” nos preços das memórias, mas ele minimizou isso como “nada realmente digno de nota”.
Mas em novembro, a Dell disse que esperava que a base de custos de todos os seus produtos aumentasse como resultado da escassez de memória. O COO Jefferey Clarke disse aos analistas que a Dell planejava mudar seu mix de configurações para minimizar os impactos nos preços, mas disse que a escassez provavelmente afetará os preços de varejo dos dispositivos.
“Não vejo como isso não chegará à base de clientes”, disse Clarke. “Faremos tudo o que pudermos para mitigar isso.”
Até mesmo a Nvidia, que emergiu como o maior cliente no mercado HBM, está enfrentando dúvidas sobre suas vorazes necessidades de memória – em particular, sobre seus produtos de consumo.
Em uma coletiva de imprensa na terça-feira na CES, o CEO da Nvidia, Jensen Huang, foi questionado se ele estava preocupado com o fato de os clientes de jogos da empresa estarem ressentidos com a tecnologia de IA por causa do aumento dos preços dos consoles de jogos e das placas gráficas, impulsionados pela escassez de memória.
Huang disse que a Nvidia é um grande cliente de memória e tem relacionamentos de longo prazo com as empresas do setor, mas que, em última análise, seria necessário haver mais fábricas de memória porque as necessidades de IA são muito altas.
“Como nossa demanda é tão alta, todas as fábricas, todos os fornecedores da HBM estão se preparando e todos estão indo muito bem”, disse Huang.
No máximo, a Micron só consegue atender a dois terços dos requisitos de memória de médio prazo de alguns clientes, disse Sadana. Mas a empresa está atualmente construindo duas grandes fábricas chamadas fabs em Boise, Idaho, que começarão a produzir memória em 2027 e 2028, disse ele. A Micron também vai inaugurar uma fábrica na cidade de Clay, Nova York, que, segundo ele, deverá entrar em operação em 2030.
Mas, por enquanto, “estamos esgotados para 2026”, disse Sadana.












