黄仁勳 desta vez não apresentou uma placa de vídeo de consumo, mas trouxe diretamente a sua arma secreta.
No CES 2026, a NVIDIA lançou oficialmente a plataforma de computação Vera Rubin, um sistema nomeado em homenagem à astrónoma que descobriu a matéria escura, com peso de 2,5 toneladas. No palco, Huang usou uma jogada audaciosa para acender o público — levando diretamente o enorme rack de servidores de IA ao palco, anunciando uma nova era.
Design de colaboração extrema, rompendo com a tradição de um único chip
No passado, a NVIDIA tinha uma regra não escrita: cada geração de produto podia modificar no máximo 1-2 chips. Mas Vera Rubin quebrou completamente essa tradição.
Desta vez, a NVIDIA redesenhou de uma só vez 6 chips, entrando na fase de produção em massa. Por que uma abordagem tão radical? Porque a Lei de Moore está desacelerando, e as melhorias tradicionais de desempenho já não acompanham o crescimento de 10 vezes ao ano dos modelos de IA. Assim, a NVIDIA adotou a estratégia de Design de Colaboração Extrema — inovando simultaneamente em cada camada dos chips e plataformas de sistema.
Estes 6 chips incluem:
Vera CPU: 88 núcleos personalizados, 176 threads, memória do sistema de 1,5TB (3 vezes a do Grace anterior), largura de banda NVLink C2C de até 1,8TB/s.
Rubin GPU: Poder de inferência NVFP4 de 50PFLOPS, 5 vezes mais que a geração anterior, com 336 bilhões de transistores (1,6 vezes mais que Blackwell), equipado com o terceiro motor Transformer que ajusta dinamicamente a precisão.
Placa de rede ConnectX-9: Ethernet de 800Gb/s baseado em SerDes PAM4 de 200G, suportando RDMA programável e aceleração de fluxo de dados.
BlueField-4 DPU: projetado especificamente para armazenamento de IA, com CPU Grace de 64 núcleos, com 150TB de memória de contexto, e ao ser alocado a GPUs, cada uma recebe adicionalmente 16TB de memória. Isso é quase 16 vezes a memória própria (cerca de 1TB), mantendo a largura de banda de 200Gbps.
Chip de troca NVLink-6: conecta 18 nós de computação e 72 GPUs Rubin, permitindo uma largura de banda de comunicação all-to-all de 3,6TB/s por GPU.
Chip de troca óptica Spectrum-6: 512 canais de 200Gbps, integrando tecnologia de fotônica de silício da TSMC com interface óptica empacotada.
Avanço de desempenho exponencial, throughput multiplicado por 10
Após integrar esses 6 chips, o sistema Vera Rubin NVL72 supera completamente suas predecessoras.
Na inferência NVFP4, alcança 3,6 EFLOPS (5 vezes mais que Blackwell), e no treinamento chega a 2,5 EFLOPS (3,5 vezes mais). Em armazenamento, o NVL72 possui 54TB de memória LPDDR5X (3 vezes a anterior), e 20,7TB de HBM (1,5 vezes mais). Em largura de banda, HBM4 atinge 1,6PB/s (2,8 vezes mais), e a largura de banda de Scale-Up chega a 260TB/s (dobrando).
O indicador mais importante é o throughput (quantidade de tokens de IA processados por watt ou por dólar), que aumentou 10 vezes em relação ao Blackwell. Para um data center de mil megawatts com custo de 50 bilhões de dólares, isso significa que a capacidade de receita será dobrada.
Treinar um modelo de 10 trilhões de parâmetros com Rubin requer apenas 1/4 do número de sistemas Blackwell, e o custo por token gerado é cerca de 1/10.
Inovação de engenharia: de conexões complexas a plug-and-play
As inovações no design de engenharia também merecem destaque.
Antigamente, um nó de supercomputador precisava de 43 cabos, levando 2 horas para montar, com risco de erro. A solução Vera Rubin é muito mais radical — sem cabos, usando apenas 6 tubos de resfriamento líquido, conectados em 5 minutos.
Na parte de trás do rack, há 3,2 km de cabos de cobre, com 5000 cabos formando a rede backbone NVLink, suportando velocidades de transmissão de 400Gbps. Huang brincou: “Você precisa ser um CEO com boa condição física para dar conta dessa tarefa.”
Solução definitiva para o impasse do KV Cache
O maior problema nas aplicações de IA é a insuficiência de memória de contexto. Quando as conversas de IA ficam longas ou os modelos maiores, a memória HBM usada pelo KV Cache rapidamente se saturará.
A abordagem da Vera Rubin é: implantar processadores BlueField-4 dentro do rack, gerenciando especificamente o KV Cache. Cada nó tem 4 BlueField-4, com 150TB de memória de contexto, e ao serem alocados às GPUs, cada uma recebe adicionalmente 16TB de memória. Isso é quase 16 vezes a memória própria (cerca de 1TB), mantendo a largura de banda de 200Gbps.
Para fazer com que as “notas” distribuídas por dezenas de racks e milhares de GPUs operem como uma única memória unificada, a rede deve ser “grande, rápida e estável”. Essa é a missão do Spectrum-X — a primeira plataforma de Ethernet ponta a ponta da NVIDIA projetada especificamente para IA generativa.
Em um data center de mil megawatts, o Spectrum-X pode aumentar o throughput em 25%, economizando cerca de 50 bilhões de dólares. Huang avaliou: “Este sistema de rede é quase ‘gratuito’.”
Ascensão da IA física, aplicações multimodais em alta
Além do hardware, o ecossistema de software também é destaque. Huang enfatizou que os aproximadamente 10 trilhões de dólares investidos em recursos computacionais na última década estão sendo completamente modernizados, mas isso não é apenas uma atualização de hardware — é uma mudança de paradigma de software.
Ele destacou o avanço do DeepSeek V1, que, ao ser open source, impulsionou toda uma onda de desenvolvimento na indústria. Embora os modelos open source atualmente fiquem cerca de 6 meses atrás dos modelos mais avançados, novos modelos surgem a cada meio ano, e essa velocidade de iteração atrai startups, gigantes e pesquisadores que não querem perder.
A NVIDIA também não vende apenas placas de vídeo desta vez, mas constrói supercomputadores DGX Cloud avaliados em dezenas de bilhões de dólares, desenvolveu modelos de ponta como La Proteina e OpenFold 3, e lançou um ecossistema de modelos open source nos campos de biomedicina, física de IA, agentes inteligentes, robótica e condução autônoma.
Alpamayo: uma bomba de condução autônoma com raciocínio
A aplicação definitiva de IA física é o Alpamayo — o primeiro modelo de condução autônoma com capacidade de pensar e raciocinar.
Diferente dos motores de regras tradicionais, o Alpamayo é um sistema treinado de ponta a ponta, capaz de resolver o “problema do cauda longa” na condução autônoma. Diante de condições de trânsito complexas e inéditas, ele não executa códigos rígidos, mas realiza raciocínio e tomada de decisão como um humano.
Na demonstração, a condução do veículo foi surpreendentemente natural, capaz de decompor cenários extremamente complexos em conhecimentos básicos. Huang anunciou que o Mercedes-Benz CLA equipado com a pilha de tecnologia Alpamayo será lançado no primeiro trimestre nos EUA, seguido por Europa e Ásia.
Este carro foi avaliado pela NCAP como o mais seguro do mundo, graças ao seu design exclusivo de “dupla pilha de segurança” — quando o modelo de IA de ponta não tem confiança suficiente na condição da estrada, o sistema troca imediatamente para modo de proteção tradicional, garantindo segurança absoluta.
Visão geral da estratégia de robótica, a fábrica como maior robô
No setor de robótica, a NVIDIA compete com nove grandes fabricantes de IA e hardware. Todos os robôs terão um computador compacto Jetson, treinado no simulador Isaac do Omniverse.
Huang convidou Boston Dynamics, Agility e outros para apresentar robôs humanoides e quadrúpedes, destacando que o maior robô é, na verdade, a própria fábrica. A visão da NVIDIA é que, no futuro, o design de chips, o sistema e a simulação de fábricas serão acelerados por IA física.
Desde o projeto do chip até a fabricação real, tudo será validado em ambientes virtuais, marcando uma grande mudança da NVIDIA do mundo virtual para o físico.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
A plataforma de nível nuclear Vera Rubin é lançada, como a NVIDIA vai reescrever o novo padrão de poder de cálculo de IA|CES 2026 Spoiler
黄仁勳 desta vez não apresentou uma placa de vídeo de consumo, mas trouxe diretamente a sua arma secreta.
No CES 2026, a NVIDIA lançou oficialmente a plataforma de computação Vera Rubin, um sistema nomeado em homenagem à astrónoma que descobriu a matéria escura, com peso de 2,5 toneladas. No palco, Huang usou uma jogada audaciosa para acender o público — levando diretamente o enorme rack de servidores de IA ao palco, anunciando uma nova era.
Design de colaboração extrema, rompendo com a tradição de um único chip
No passado, a NVIDIA tinha uma regra não escrita: cada geração de produto podia modificar no máximo 1-2 chips. Mas Vera Rubin quebrou completamente essa tradição.
Desta vez, a NVIDIA redesenhou de uma só vez 6 chips, entrando na fase de produção em massa. Por que uma abordagem tão radical? Porque a Lei de Moore está desacelerando, e as melhorias tradicionais de desempenho já não acompanham o crescimento de 10 vezes ao ano dos modelos de IA. Assim, a NVIDIA adotou a estratégia de Design de Colaboração Extrema — inovando simultaneamente em cada camada dos chips e plataformas de sistema.
Estes 6 chips incluem:
Vera CPU: 88 núcleos personalizados, 176 threads, memória do sistema de 1,5TB (3 vezes a do Grace anterior), largura de banda NVLink C2C de até 1,8TB/s.
Rubin GPU: Poder de inferência NVFP4 de 50PFLOPS, 5 vezes mais que a geração anterior, com 336 bilhões de transistores (1,6 vezes mais que Blackwell), equipado com o terceiro motor Transformer que ajusta dinamicamente a precisão.
Placa de rede ConnectX-9: Ethernet de 800Gb/s baseado em SerDes PAM4 de 200G, suportando RDMA programável e aceleração de fluxo de dados.
BlueField-4 DPU: projetado especificamente para armazenamento de IA, com CPU Grace de 64 núcleos, com 150TB de memória de contexto, e ao ser alocado a GPUs, cada uma recebe adicionalmente 16TB de memória. Isso é quase 16 vezes a memória própria (cerca de 1TB), mantendo a largura de banda de 200Gbps.
Chip de troca NVLink-6: conecta 18 nós de computação e 72 GPUs Rubin, permitindo uma largura de banda de comunicação all-to-all de 3,6TB/s por GPU.
Chip de troca óptica Spectrum-6: 512 canais de 200Gbps, integrando tecnologia de fotônica de silício da TSMC com interface óptica empacotada.
Avanço de desempenho exponencial, throughput multiplicado por 10
Após integrar esses 6 chips, o sistema Vera Rubin NVL72 supera completamente suas predecessoras.
Na inferência NVFP4, alcança 3,6 EFLOPS (5 vezes mais que Blackwell), e no treinamento chega a 2,5 EFLOPS (3,5 vezes mais). Em armazenamento, o NVL72 possui 54TB de memória LPDDR5X (3 vezes a anterior), e 20,7TB de HBM (1,5 vezes mais). Em largura de banda, HBM4 atinge 1,6PB/s (2,8 vezes mais), e a largura de banda de Scale-Up chega a 260TB/s (dobrando).
O indicador mais importante é o throughput (quantidade de tokens de IA processados por watt ou por dólar), que aumentou 10 vezes em relação ao Blackwell. Para um data center de mil megawatts com custo de 50 bilhões de dólares, isso significa que a capacidade de receita será dobrada.
Treinar um modelo de 10 trilhões de parâmetros com Rubin requer apenas 1/4 do número de sistemas Blackwell, e o custo por token gerado é cerca de 1/10.
Inovação de engenharia: de conexões complexas a plug-and-play
As inovações no design de engenharia também merecem destaque.
Antigamente, um nó de supercomputador precisava de 43 cabos, levando 2 horas para montar, com risco de erro. A solução Vera Rubin é muito mais radical — sem cabos, usando apenas 6 tubos de resfriamento líquido, conectados em 5 minutos.
Na parte de trás do rack, há 3,2 km de cabos de cobre, com 5000 cabos formando a rede backbone NVLink, suportando velocidades de transmissão de 400Gbps. Huang brincou: “Você precisa ser um CEO com boa condição física para dar conta dessa tarefa.”
Solução definitiva para o impasse do KV Cache
O maior problema nas aplicações de IA é a insuficiência de memória de contexto. Quando as conversas de IA ficam longas ou os modelos maiores, a memória HBM usada pelo KV Cache rapidamente se saturará.
A abordagem da Vera Rubin é: implantar processadores BlueField-4 dentro do rack, gerenciando especificamente o KV Cache. Cada nó tem 4 BlueField-4, com 150TB de memória de contexto, e ao serem alocados às GPUs, cada uma recebe adicionalmente 16TB de memória. Isso é quase 16 vezes a memória própria (cerca de 1TB), mantendo a largura de banda de 200Gbps.
Para fazer com que as “notas” distribuídas por dezenas de racks e milhares de GPUs operem como uma única memória unificada, a rede deve ser “grande, rápida e estável”. Essa é a missão do Spectrum-X — a primeira plataforma de Ethernet ponta a ponta da NVIDIA projetada especificamente para IA generativa.
Em um data center de mil megawatts, o Spectrum-X pode aumentar o throughput em 25%, economizando cerca de 50 bilhões de dólares. Huang avaliou: “Este sistema de rede é quase ‘gratuito’.”
Ascensão da IA física, aplicações multimodais em alta
Além do hardware, o ecossistema de software também é destaque. Huang enfatizou que os aproximadamente 10 trilhões de dólares investidos em recursos computacionais na última década estão sendo completamente modernizados, mas isso não é apenas uma atualização de hardware — é uma mudança de paradigma de software.
Ele destacou o avanço do DeepSeek V1, que, ao ser open source, impulsionou toda uma onda de desenvolvimento na indústria. Embora os modelos open source atualmente fiquem cerca de 6 meses atrás dos modelos mais avançados, novos modelos surgem a cada meio ano, e essa velocidade de iteração atrai startups, gigantes e pesquisadores que não querem perder.
A NVIDIA também não vende apenas placas de vídeo desta vez, mas constrói supercomputadores DGX Cloud avaliados em dezenas de bilhões de dólares, desenvolveu modelos de ponta como La Proteina e OpenFold 3, e lançou um ecossistema de modelos open source nos campos de biomedicina, física de IA, agentes inteligentes, robótica e condução autônoma.
Alpamayo: uma bomba de condução autônoma com raciocínio
A aplicação definitiva de IA física é o Alpamayo — o primeiro modelo de condução autônoma com capacidade de pensar e raciocinar.
Diferente dos motores de regras tradicionais, o Alpamayo é um sistema treinado de ponta a ponta, capaz de resolver o “problema do cauda longa” na condução autônoma. Diante de condições de trânsito complexas e inéditas, ele não executa códigos rígidos, mas realiza raciocínio e tomada de decisão como um humano.
Na demonstração, a condução do veículo foi surpreendentemente natural, capaz de decompor cenários extremamente complexos em conhecimentos básicos. Huang anunciou que o Mercedes-Benz CLA equipado com a pilha de tecnologia Alpamayo será lançado no primeiro trimestre nos EUA, seguido por Europa e Ásia.
Este carro foi avaliado pela NCAP como o mais seguro do mundo, graças ao seu design exclusivo de “dupla pilha de segurança” — quando o modelo de IA de ponta não tem confiança suficiente na condição da estrada, o sistema troca imediatamente para modo de proteção tradicional, garantindo segurança absoluta.
Visão geral da estratégia de robótica, a fábrica como maior robô
No setor de robótica, a NVIDIA compete com nove grandes fabricantes de IA e hardware. Todos os robôs terão um computador compacto Jetson, treinado no simulador Isaac do Omniverse.
Huang convidou Boston Dynamics, Agility e outros para apresentar robôs humanoides e quadrúpedes, destacando que o maior robô é, na verdade, a própria fábrica. A visão da NVIDIA é que, no futuro, o design de chips, o sistema e a simulação de fábricas serão acelerados por IA física.
Desde o projeto do chip até a fabricação real, tudo será validado em ambientes virtuais, marcando uma grande mudança da NVIDIA do mundo virtual para o físico.