A última vez que a NVIDIA não trouxe placas de vídeo de consumo na CES foi há 5 anos. Mas desta vez foi diferente — Jensen Huang subiu ao palco vestindo a sua icônica jaqueta de crocodilo, trazendo algo de peso: um armário de servidor de 2,5 toneladas, e uma plataforma de computação Vera Rubin que pode reestruturar toda a indústria de IA.
Este sistema, nomeado em homenagem à astrónoma Vera Rubin (que descobriu a matéria escura), resolve o problema mais urgente na era da IA — recursos de computação de 10 trilhões de dólares estão a precisar de uma modernização completa.
Como entender a NVIDIA através de uma única máquina “de dentro para fora”
Quando a lei de Moore tradicional começa a falhar, a NVIDIA escolheu uma rota de integração extrema. Desta vez, eles quebraram a tradição de melhorar no máximo 1-2 chips por geração — Vera Rubin redesenhou simultaneamente 6 chips, todos entrando em produção em larga escala.
Estes 6 chips são:
Vera CPU: 88 núcleos Olympus, 176 threads paralelas, 227 bilhões de transistores por chip
Rubin GPU: desempenho de inferência de 50 PFLOPS (5 vezes a geração Blackwell), 336 bilhões de transistores
Placa de rede ConnectX-9: Ethernet de 800Gbps, suporte a aceleração RDMA programável
BlueField-4 DPU: projetado para a próxima geração de plataformas de armazenamento de IA, 126 bilhões de transistores
Chips de troca NVLink-6: conecta 18 nós de computação, 72 GPUs Rubin colaborando
Switch óptico de Ethernet Spectrum-6: 512 canais de 200Gbps, 352 bilhões de transistores
Só os parâmetros podem parecer entediantes, mas o número-chave é este — treinar um modelo de 100 trilhões de parâmetros requer apenas 1/4 do sistema Blackwell. O custo para gerar um token caiu para um décimo.
O que está por trás do aumento na densidade de cálculo: uma revolução na engenharia
Antes, montar um nó de supercomputador exigia 43 cabos, levava 2 horas para montar e era fácil cometer erros. O nó Vera Rubin não tem cabos elétricos — apenas 6 tubos de água de resfriamento líquido — o tempo de instalação foi reduzido para 5 minutos.
Na parte de trás do armário, há quase 3,2 km de cabos de cobre, 5000 cabos formando a espinha dorsal NVLink, oferecendo uma largura de banda de 400Gbps. Jensen Huang brincou: “Só um CEO com boa condição física consegue mover isso tudo.”
Mais importante ainda, a atualização de memória — o sistema NVL72 possui 54TB de memória LPDDR5X (3 vezes a geração anterior) e 20,7TB de HBM, com largura de banda de HBM4 de até 1,6 PB/s. Apesar do aumento de desempenho de 3,5 a 5 vezes, o número de transistores aumentou apenas 1,7 vezes, refletindo avanços no processo de semicondutores.
Quebrando o “problema da cauda longa”: de capacidade a aplicação
Na formação de IA, sempre houve um gargalo — memória de contexto insuficiente. Modelos grandes geram um “KV Cache” (cache de chaves e valores), que funciona como a “memória de trabalho” da IA. Com diálogos mais longos e modelos maiores, a capacidade de HBM muitas vezes não é suficiente.
A solução de Vera Rubin é implantar processadores BlueField-4 dentro do armário para gerenciar o cache KV. Cada nó tem 4 BlueField-4, cada um oferecendo 150TB de armazenamento de contexto — após alocação para a GPU, cada GPU adicional recebe 16TB de memória (a GPU em si tem cerca de 1TB), com velocidade de transmissão de 200Gbps, sem gargalos de desempenho.
Para fazer esses “notas” dispersas em dezenas de armários e milhares de GPUs funcionarem como uma única memória, a rede precisa ser grande, rápida e estável o suficiente. Essa é a função do Spectrum-X — a primeira plataforma de Ethernet projetada para geração de IA, integrando a tecnologia de fotônica de silício da TSMC, com 512 canais de 200Gbps.
Jensen Huang fez uma conta: um data center de 1GW custa 50 bilhões de dólares, e o Spectrum-X pode aumentar a taxa de transferência em 25%, economizando 5 bilhões de dólares. “Pode-se dizer que esse sistema de rede é praticamente gratuito.”
“Revolução de código aberto” e mudança na indústria
Voltando ao início do discurso, Jensen Huang apresentou um número — os 10 trilhões de dólares investidos em recursos de computação na última década estão passando por uma atualização completa. Mas isso não é só hardware — é uma mudança de paradigma na programação.
O lançamento do DeepSeek V1 de código aberto no ano passado surpreendeu a todos. Como o primeiro sistema de inferência de código aberto, ele desencadeou uma onda de desenvolvimento na indústria. Modelos chineses como Kimi K2 e DeepSeek V3.2 atualmente ocupam o primeiro e o segundo lugar em rankings de código aberto.
Jensen Huang admitiu que, embora os modelos de código aberto possam ficar até 6 meses atrás do estado da arte, novos modelos surgem a cada meio ano. Essa velocidade de iteração faz com que startups, gigantes e instituições de pesquisa não queiram ficar para trás — e a NVIDIA não é exceção. Por isso, eles não estão apenas “vendendo pás”, mas também investindo bilhões de dólares em supercomputadores DGX Cloud, desenvolvendo modelos como La Proteina (síntese de proteínas) e OpenFold 3.
A família de modelos de código aberto Nemotron cobre áreas como voz, multimodalidade, RAG, segurança, e está se destacando em várias classificações, com cada vez mais empresas adotando-os.
As três camadas de computadores para IA física
Se os grandes modelos de linguagem resolveram o problema do “mundo digital”, o próximo objetivo é conquistar o “mundo físico”. Para que a IA compreenda as leis físicas e sobreviva na realidade, são necessários dados extremamente raros.
Jensen Huang resumiu as “três computadores” que a IA física precisa:
Computador de treinamento — sistema de alto desempenho com placas de treinamento (como a arquitetura GB300)
Computador de inferência — o “pequeno cérebro” embutido em robôs e carros, responsável por decisões em tempo real
Computador de simulação — incluindo Omniverse e Cosmos, permitindo que a IA aprenda e receba feedback em ambientes virtuais
O sistema Cosmos gera ambientes de treinamento massivos para a IA no mundo físico. Com essa arquitetura, Jensen Huang lançou oficialmente o primeiro modelo de condução autônoma de ponta a ponta, o Alpamayo.
Diferente dos sistemas tradicionais, o Alpamayo é um treinamento verdadeiramente de ponta a ponta. Sua inovação está em resolver o “problema da cauda longa” na condução autônoma — ao enfrentar situações desconhecidas e complexas na estrada, o Alpamayo não executa comandos rígidos, mas raciocina como um humano. “Ele te dirá o que fazer a seguir e por quê.” No demo, o carro dirige de forma natural e fluida, decompondo condições complexas em regras básicas.
Já há implementações — o Mercedes CLA equipado com tecnologia Alpamayo será lançado no primeiro trimestre nos EUA, seguido por Europa e Ásia. Este carro foi classificado como o mais seguro do mundo pela NCAP, graças à exclusiva “pilha dupla de segurança” da NVIDIA — quando a IA de ponta a ponta não consegue determinar com certeza, o sistema muda automaticamente para um modo mais tradicional e seguro.
Exército de robôs e fábricas que são robôs
A estratégia de robótica da NVIDIA também é grandiosa. Todos os robôs terão um computador Jetson mini, treinado no simulador Isaac do Omniverse. Essas tecnologias estão sendo integradas em ecossistemas industriais como Synopsys, Cadence, Siemens, entre outros.
No palco, apareceram robôs humanoides da Boston Dynamics e Agility, além de robôs quadrúpedes e os robôs da Disney. Jensen Huang brincou: “Esses amiguinhos adoráveis serão projetados, fabricados e até testados no computador, e já terão ‘vivido’ uma vez antes de enfrentarem a gravidade real.”
A visão final da NVIDIA é acelerar tudo — do design de chips à arquitetura de sistemas e simulações de fábricas — usando IA física. Isso inclui a criação de mapas físicos de novas regiões e aplicações, como o mapa físico da Ásia (mapa fizyczna azji), para validar o desempenho de veículos autônomos e robôs em diferentes condições geográficas.
A lógica de “vender armas na guerra”
Se não fosse Jensen Huang, você poderia pensar que esta é uma apresentação de uma empresa de modelos de IA. Quando o hype de IA explode e a lei de Moore desacelera, Jensen Huang parece querer reacender nossa confiança na IA — mostrando o que ela realmente pode fazer.
Desde a plataforma de chips ultra-potente Vera Rubin, passando pelo foco em aplicações e softwares, até IA física, condução autônoma e robótica — eles passaram de criar chips para mundos virtuais a participar ativamente de demonstrações, focando na IA física e na competição acirrada no mundo real.
Afinal, só na “época de guerra” os armamentos continuam a vender bem.
Easter egg: devido às limitações de tempo na CES, Jensen Huang não terminou todas as slides. As partes não exibidas foram transformadas em um vídeo humorístico.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Jensen Huang trouxe um "monstro" de 2500 quilos, a NVIDIA Vera Rubin revoluciona completamente a indústria de IA
A última vez que a NVIDIA não trouxe placas de vídeo de consumo na CES foi há 5 anos. Mas desta vez foi diferente — Jensen Huang subiu ao palco vestindo a sua icônica jaqueta de crocodilo, trazendo algo de peso: um armário de servidor de 2,5 toneladas, e uma plataforma de computação Vera Rubin que pode reestruturar toda a indústria de IA.
Este sistema, nomeado em homenagem à astrónoma Vera Rubin (que descobriu a matéria escura), resolve o problema mais urgente na era da IA — recursos de computação de 10 trilhões de dólares estão a precisar de uma modernização completa.
Como entender a NVIDIA através de uma única máquina “de dentro para fora”
Quando a lei de Moore tradicional começa a falhar, a NVIDIA escolheu uma rota de integração extrema. Desta vez, eles quebraram a tradição de melhorar no máximo 1-2 chips por geração — Vera Rubin redesenhou simultaneamente 6 chips, todos entrando em produção em larga escala.
Estes 6 chips são:
Só os parâmetros podem parecer entediantes, mas o número-chave é este — treinar um modelo de 100 trilhões de parâmetros requer apenas 1/4 do sistema Blackwell. O custo para gerar um token caiu para um décimo.
O que está por trás do aumento na densidade de cálculo: uma revolução na engenharia
Antes, montar um nó de supercomputador exigia 43 cabos, levava 2 horas para montar e era fácil cometer erros. O nó Vera Rubin não tem cabos elétricos — apenas 6 tubos de água de resfriamento líquido — o tempo de instalação foi reduzido para 5 minutos.
Na parte de trás do armário, há quase 3,2 km de cabos de cobre, 5000 cabos formando a espinha dorsal NVLink, oferecendo uma largura de banda de 400Gbps. Jensen Huang brincou: “Só um CEO com boa condição física consegue mover isso tudo.”
Mais importante ainda, a atualização de memória — o sistema NVL72 possui 54TB de memória LPDDR5X (3 vezes a geração anterior) e 20,7TB de HBM, com largura de banda de HBM4 de até 1,6 PB/s. Apesar do aumento de desempenho de 3,5 a 5 vezes, o número de transistores aumentou apenas 1,7 vezes, refletindo avanços no processo de semicondutores.
Quebrando o “problema da cauda longa”: de capacidade a aplicação
Na formação de IA, sempre houve um gargalo — memória de contexto insuficiente. Modelos grandes geram um “KV Cache” (cache de chaves e valores), que funciona como a “memória de trabalho” da IA. Com diálogos mais longos e modelos maiores, a capacidade de HBM muitas vezes não é suficiente.
A solução de Vera Rubin é implantar processadores BlueField-4 dentro do armário para gerenciar o cache KV. Cada nó tem 4 BlueField-4, cada um oferecendo 150TB de armazenamento de contexto — após alocação para a GPU, cada GPU adicional recebe 16TB de memória (a GPU em si tem cerca de 1TB), com velocidade de transmissão de 200Gbps, sem gargalos de desempenho.
Para fazer esses “notas” dispersas em dezenas de armários e milhares de GPUs funcionarem como uma única memória, a rede precisa ser grande, rápida e estável o suficiente. Essa é a função do Spectrum-X — a primeira plataforma de Ethernet projetada para geração de IA, integrando a tecnologia de fotônica de silício da TSMC, com 512 canais de 200Gbps.
Jensen Huang fez uma conta: um data center de 1GW custa 50 bilhões de dólares, e o Spectrum-X pode aumentar a taxa de transferência em 25%, economizando 5 bilhões de dólares. “Pode-se dizer que esse sistema de rede é praticamente gratuito.”
“Revolução de código aberto” e mudança na indústria
Voltando ao início do discurso, Jensen Huang apresentou um número — os 10 trilhões de dólares investidos em recursos de computação na última década estão passando por uma atualização completa. Mas isso não é só hardware — é uma mudança de paradigma na programação.
O lançamento do DeepSeek V1 de código aberto no ano passado surpreendeu a todos. Como o primeiro sistema de inferência de código aberto, ele desencadeou uma onda de desenvolvimento na indústria. Modelos chineses como Kimi K2 e DeepSeek V3.2 atualmente ocupam o primeiro e o segundo lugar em rankings de código aberto.
Jensen Huang admitiu que, embora os modelos de código aberto possam ficar até 6 meses atrás do estado da arte, novos modelos surgem a cada meio ano. Essa velocidade de iteração faz com que startups, gigantes e instituições de pesquisa não queiram ficar para trás — e a NVIDIA não é exceção. Por isso, eles não estão apenas “vendendo pás”, mas também investindo bilhões de dólares em supercomputadores DGX Cloud, desenvolvendo modelos como La Proteina (síntese de proteínas) e OpenFold 3.
A família de modelos de código aberto Nemotron cobre áreas como voz, multimodalidade, RAG, segurança, e está se destacando em várias classificações, com cada vez mais empresas adotando-os.
As três camadas de computadores para IA física
Se os grandes modelos de linguagem resolveram o problema do “mundo digital”, o próximo objetivo é conquistar o “mundo físico”. Para que a IA compreenda as leis físicas e sobreviva na realidade, são necessários dados extremamente raros.
Jensen Huang resumiu as “três computadores” que a IA física precisa:
O sistema Cosmos gera ambientes de treinamento massivos para a IA no mundo físico. Com essa arquitetura, Jensen Huang lançou oficialmente o primeiro modelo de condução autônoma de ponta a ponta, o Alpamayo.
Diferente dos sistemas tradicionais, o Alpamayo é um treinamento verdadeiramente de ponta a ponta. Sua inovação está em resolver o “problema da cauda longa” na condução autônoma — ao enfrentar situações desconhecidas e complexas na estrada, o Alpamayo não executa comandos rígidos, mas raciocina como um humano. “Ele te dirá o que fazer a seguir e por quê.” No demo, o carro dirige de forma natural e fluida, decompondo condições complexas em regras básicas.
Já há implementações — o Mercedes CLA equipado com tecnologia Alpamayo será lançado no primeiro trimestre nos EUA, seguido por Europa e Ásia. Este carro foi classificado como o mais seguro do mundo pela NCAP, graças à exclusiva “pilha dupla de segurança” da NVIDIA — quando a IA de ponta a ponta não consegue determinar com certeza, o sistema muda automaticamente para um modo mais tradicional e seguro.
Exército de robôs e fábricas que são robôs
A estratégia de robótica da NVIDIA também é grandiosa. Todos os robôs terão um computador Jetson mini, treinado no simulador Isaac do Omniverse. Essas tecnologias estão sendo integradas em ecossistemas industriais como Synopsys, Cadence, Siemens, entre outros.
No palco, apareceram robôs humanoides da Boston Dynamics e Agility, além de robôs quadrúpedes e os robôs da Disney. Jensen Huang brincou: “Esses amiguinhos adoráveis serão projetados, fabricados e até testados no computador, e já terão ‘vivido’ uma vez antes de enfrentarem a gravidade real.”
A visão final da NVIDIA é acelerar tudo — do design de chips à arquitetura de sistemas e simulações de fábricas — usando IA física. Isso inclui a criação de mapas físicos de novas regiões e aplicações, como o mapa físico da Ásia (mapa fizyczna azji), para validar o desempenho de veículos autônomos e robôs em diferentes condições geográficas.
A lógica de “vender armas na guerra”
Se não fosse Jensen Huang, você poderia pensar que esta é uma apresentação de uma empresa de modelos de IA. Quando o hype de IA explode e a lei de Moore desacelera, Jensen Huang parece querer reacender nossa confiança na IA — mostrando o que ela realmente pode fazer.
Desde a plataforma de chips ultra-potente Vera Rubin, passando pelo foco em aplicações e softwares, até IA física, condução autônoma e robótica — eles passaram de criar chips para mundos virtuais a participar ativamente de demonstrações, focando na IA física e na competição acirrada no mundo real.
Afinal, só na “época de guerra” os armamentos continuam a vender bem.
Easter egg: devido às limitações de tempo na CES, Jensen Huang não terminou todas as slides. As partes não exibidas foram transformadas em um vídeo humorístico.