A nova period do Vale do Silício funciona com base em networking – e não do tipo que você encontra no LinkedIn.
À medida que a indústria tecnológica canaliza milhares de milhões para centros de dados de IA, os fabricantes de chips, grandes e pequenos, estão a intensificar a inovação em torno da tecnologia que liga chips a outros chips e racks de servidores a outros racks de servidores.
A tecnologia de rede existe desde os primórdios do computador, conectando de forma crítica mainframes para que eles possam compartilhar dados. No mundo dos semicondutores, a rede desempenha um papel em quase todos os níveis da pilha – desde a interconexão entre os transistores no próprio chip até as conexões externas feitas entre caixas ou racks de chips.
Gigantes de chips como Nvidia, Broadcom e Marvell já possuem boa fé em redes bem estabelecidas. Mas no growth da IA, algumas empresas procuram novas abordagens de rede que as ajudem a acelerar as enormes quantidades de informação digital que fluem através dos centros de dados. É aqui que entram startups de tecnologia profunda como Lightmatter, Celestial AI e PsiQuantum, que usam tecnologia óptica para acelerar a computação de alta velocidade.
A tecnologia óptica, ou fotônica, está passando por um momento de amadurecimento. A tecnologia foi considerada “fraca, cara e marginalmente útil” durante 25 anos, até que o growth da IA reacendeu o interesse nela, de acordo com o cofundador e diretor científico da PsiQuantum, Pete Shadbolt. (Shadbolt apareceu em um painel na semana passada co-organizado pela WIRED.)
Alguns capitalistas de risco e investidores institucionais, na esperança de apanhar a próxima onda de inovação em chips ou pelo menos encontrar um alvo de aquisição adequado, estão a canalizar milhares de milhões para startups como estas, que encontraram novas formas de acelerar a transferência de dados. Eles acreditam que a tecnologia de interconexão tradicional, que depende de elétrons, simplesmente não consegue acompanhar a crescente necessidade de cargas de trabalho de IA de alta largura de banda.
“Se olharmos para trás, historicamente, period realmente chato cobrir redes, porque se tratava de troca de pacotes de bits”, diz Ben Bajarin, um analista de tecnologia de longa knowledge que atua como CEO da empresa de pesquisa Artistic Methods. “Agora, por causa da IA, ela precisa mover cargas de trabalho bastante robustas, e é por isso que estamos vendo inovação em torno da velocidade.”
Energia de grandes chips
Bajarin e outros dão crédito à Nvidia por ser presciente sobre a importância das redes quando fez duas aquisições importantes na tecnologia anos atrás. Em 2020, a Nvidia gastou quase US$ 7 bilhões para adquirir a empresa israelense Mellanox Applied sciences, que fabrica soluções de rede de alta velocidade para servidores e knowledge facilities. Pouco depois, a Nvidia comprou a Cumulus Networks, para alimentar seu sistema de software program baseado em Linux para redes de computadores. Este foi um ponto de viragem para a Nvidia, que apostou acertadamente que a GPU e as suas capacidades de computação paralela se tornariam muito mais poderosas quando agrupadas com outras GPUs e colocadas em centros de dados.
Enquanto a Nvidia domina as pilhas de GPU integradas verticalmente, a Broadcom se tornou um participant importante em aceleradores de chips personalizados e tecnologia de rede de alta velocidade. A empresa de US$ 1,7 trilhão trabalha em estreita colaboração com Google, Meta e, mais recentemente, OpenAI, em chips para knowledge facilities. Também está na vanguarda da fotônica de silício. E no mês passado, a Reuters informou que Broadcom está preparando um novo chip de rede chamado Thor Extremely, projetado para fornecer um “elo crítico entre um sistema de IA e o resto do knowledge middle”.
Em sua teleconferência de resultados na semana passada, a gigante do design de semicondutores ARM anunciou planos para adquirir a empresa de redes DreamBig por US$ 265 milhões. A DreamBig fabrica chips de IA – circuitos pequenos e modulares projetados para serem agrupados em sistemas de chips maiores – em parceria com a Samsung. A startup possui “propriedade intelectual interessante… que [is] muito importante para expansão e expansão de redes “, disse o CEO da ARM, Rene Haas, na teleconferência de resultados. (Isso significa conectar componentes e enviar dados para cima e para baixo em um único cluster de chip, bem como conectar racks de chips a outros racks.)
Luz acesa
O CEO da Lightmatter, Nick Harris, apontou que a quantidade de poder computacional que a IA requer agora dobra a cada três meses – muito mais rápido do que determina a Lei de Moore. Os chips de computador estão ficando cada vez maiores. “Sempre que você está no estado da arte dos maiores chips que você pode construir, todo o desempenho depois disso vem da ligação dos chips”, diz Harris.
A abordagem de sua empresa é inovadora e não depende da tecnologia de rede tradicional. Lightmatter constrói fotônica de silício que conecta chips. Ela afirma fabricar o mecanismo fotônico mais rápido do mundo para chips de IA, essencialmente uma pilha 3D de silício conectada por tecnologia de interconexão baseada em luz. A startup arrecadou mais de US$ 500 milhões nos últimos dois anos de investidores como GV e T. Rowe Worth. No ano passado, sua avaliação atingiu US$ 4,4 bilhões.











