Se presenta la plataforma de nivel bomba de Vera Rubin, ¿cómo cambiará NVIDIA el nuevo panorama del poder de cálculo en IA?|Avance de CES 2026

robot
Generación de resúmenes en curso

Huang Renxun esta vez no presentó una tarjeta gráfica de consumo, sino que directamente sacó a relucir su arma secreta más reservada.

En CES 2026, NVIDIA anunció oficialmente la plataforma de cálculo Vera Rubin, un sistema que lleva el nombre del astrónomo que descubrió la materia oscura, con un peso de 2.5 toneladas. Sobre el escenario, Huang Renxun encendió a la audiencia con una medida audaz: ¡llevó directamente el enorme chasis del servidor AI al podio, proclamando una nueva era!

Diseño de colaboración extrema, rompiendo la tradición de un solo chip

Antes, NVIDIA tenía una regla no escrita: cada generación de productos modificaba a lo sumo 1-2 chips. Pero Vera Rubin rompió completamente con esa tradición.

En esta ocasión, NVIDIA rediseñó de una sola vez 6 chips, entrando en fase de producción en masa. ¿Por qué tan radical? Porque la Ley de Moore se está desacelerando, y las rutas tradicionales de mejora del rendimiento ya no siguen el ritmo del crecimiento de los modelos AI, que aumenta 10 veces cada año. Por eso, NVIDIA adoptó la estrategia de “diseño de colaboración extrema”: innovar simultáneamente en cada nivel de los chips y plataformas del sistema.

Estos 6 chips incluyen:

Vera CPU: 88 núcleos personalizados, 176 hilos de ejecución, memoria del sistema de 1.5TB (el triple que la generación anterior Grace), ancho de banda NVLink C2C de hasta 1.8TB/s.

Rubin GPU: capacidad de inferencia NVFP4 de 50PFLOPS, 5 veces más que la generación anterior, con 336 mil millones de transistores (1.6 veces más que Blackwell), con un motor Transformer de tercera generación que ajusta dinámicamente la precisión.

Tarjeta de red ConnectX-9: Ethernet de 800Gb/s basado en SerDes PAM4 de 200G, soporta RDMA programable y aceleración de rutas de datos.

BlueField-4 DPU: diseñado específicamente para almacenamiento AI, con CPU Grace de 64 núcleos, orientado a la nueva generación de SmartNIC y procesadores de almacenamiento.

Chips de conmutación NVLink-6: conecta 18 nodos de cálculo y 72 GPUs Rubin, en su arquitectura cada GPU puede obtener un ancho de banda de comunicación all-to-all de 3.6TB/s.

Chips de conmutación óptica Spectrum-6: 512 canales×200Gbps, integrando tecnología de fotónica de silicio de proceso COOP de TSMC, con interfaces ópticas integradas en el encapsulado.

Mejora de rendimiento exponencial, aumento de 10 veces en rendimiento

Tras integrar estos 6 chips, el sistema Vera Rubin NVL72 supera ampliamente en rendimiento.

En tareas de inferencia NVFP4, alcanza 3.6 EFLOPS (5 veces más que Blackwell), y en entrenamiento llega a 2.5 EFLOPS (3.5 veces más). En almacenamiento, el NVL72 cuenta con 54TB de memoria LPDDR5X (el triple que la generación anterior), y 20.7TB de capacidad HBM (1.5 veces más). En ancho de banda, HBM4 alcanza 1.6PB/s (2.8 veces más), y el ancho de banda de Scale-Up llega a 260TB/s (el doble).

El indicador más importante es el rendimiento por vatio y por dólar en tokens AI, que ha mejorado 10 veces respecto a Blackwell. Para un centro de datos de mil millones de dólares y capacidad de megavatio, esto significa que los ingresos se duplicarán directamente.

Entrenar un modelo de 10 billones de parámetros requiere solo una cuarta parte de los sistemas Blackwell, y el costo por token generado es aproximadamente una décima.

Innovación en ingeniería: de conexiones complejas a plug-and-play

Los avances en diseño de ingeniería también son dignos de atención.

Antes, los nodos de supercomputación requerían 43 cables, con un tiempo de ensamblaje de 2 horas y riesgo de errores. La solución de Vera Rubin es mucho más radical: ¡sin cables, solo 6 tubos de enfriamiento líquido, y en 5 minutos se realiza la conexión!

Detrás del chasis, hay 3.2 km de cables de cobre, con 5000 cables formando la red troncal NVLink, soportando velocidades de transmisión de 400Gbps. Huang Renxun bromeó: “Solo un CEO muy corpulento puede encargarse de esto.”

La solución definitiva al dilema de KV Cache

El mayor problema en aplicaciones AI es la insuficiencia de memoria de contexto. Cuando las conversaciones AI se alargan o los modelos crecen, la memoria HBM ocupada por KV Cache se satura rápidamente.

La estrategia de Vera Rubin es: desplegar procesadores BlueField-4 dentro del chasis para gestionar específicamente KV Cache. Cada nodo tiene 4 BlueField-4, con 150TB de memoria de contexto, y al asignar memoria a la GPU, cada una recibe adicionalmente 16TB. Esto es casi 16 veces la memoria propia (aproximadamente 1TB), manteniendo un ancho de banda de 200Gbps sin reducción.

Para que las “notas” distribuidas en decenas de chasis y miles de GPUs funcionen como una memoria unificada, la red debe ser “grande, rápida y estable”. Esa es la misión de Spectrum-X: la primera plataforma de Ethernet de extremo a extremo diseñada por NVIDIA para generación de AI.

En un centro de datos de mil millones de dólares, Spectrum-X puede aumentar el rendimiento en un 25%, ahorrando aproximadamente 50 mil millones de dólares. La evaluación de Huang Renxun fue clara: “Este sistema de red es casi ‘regalado’.”

Auge de la IA física, aplicaciones multimodales en auge

Más allá del hardware, el ecosistema de software también es un punto clave. Huang Renxun enfatizó que los aproximadamente 10 billones de dólares en recursos computacionales invertidos en la última década están siendo completamente modernizados, pero esto no solo implica mejoras en hardware, sino también un cambio en el paradigma del software.

Destacó los avances de DeepSeek V1, considerando que su sistema de inferencia de código abierto ha impulsado una ola de desarrollo en toda la industria. Aunque los modelos de código abierto actualmente están unos 6 meses por detrás de los modelos más avanzados, nuevos modelos aparecen cada medio año, y esta velocidad de iteración atrae a emprendedores, gigantes y académicos que no quieren perderse.

NVIDIA tampoco solo vende tarjetas gráficas, sino que ha construido supercomputadoras DGX Cloud por valor de miles de millones de dólares, desarrollando modelos de vanguardia como La Proteina y OpenFold 3, y lanzando un ecosistema de modelos de código abierto en biomedicina, física AI, agentes inteligentes, robótica y conducción autónoma.

Alpamayo: un misil nuclear de conducción autónoma con capacidad de inferencia

La aplicación definitiva de la IA física es Alpamayo, el primer modelo de conducción autónoma en el mundo con capacidad de pensamiento y razonamiento.

A diferencia de los motores de reglas tradicionales en conducción autónoma, Alpamayo es un sistema entrenado de extremo a extremo, capaz de resolver el “problema de cola larga” en conducción autónoma. Frente a condiciones de tráfico complejas y nunca vistas, ya no ejecuta ciegamente código, sino que realiza razonamientos y decisiones como un conductor humano.

En la demostración, la conducción del vehículo fue sorprendentemente natural, descomponiendo escenarios extremadamente complejos en conocimientos básicos. Huang Renxun anunció que el Mercedes-Benz CLA equipado con la pila tecnológica Alpamayo estará en línea en EE. UU. en el primer trimestre de este año, y posteriormente llegará a Europa y Asia.

Este vehículo fue calificado como el más seguro del mundo por NCAP, gracias a la exclusiva “doble pila de seguridad” de NVIDIA: cuando el modelo AI de extremo a extremo no tiene confianza en las condiciones del camino, el sistema cambia inmediatamente a modo de protección tradicional, garantizando la seguridad absoluta.

Panorama estratégico de robots, la fábrica en sí misma se convierte en el mayor robot

En la carrera de robots, NVIDIA compite con nueve de los principales fabricantes de AI y hardware. Todos los robots llevarán computadoras pequeñas Jetson, entrenadas en el simulador Isaac de Omniverse.

Huang Renxun invitó a Boston Dynamics, Agility y otros para presentar robots humanoides y cuadrúpedos, y enfatizó que el robot más grande en realidad es la propia fábrica. La visión de NVIDIA es que, en el futuro, el diseño de chips, la ingeniería de sistemas y la simulación de fábricas serán acelerados por la IA física.

Desde el diseño de chips hasta la fabricación real, todo se verificará en entornos virtuales, marcando un cambio importante en la transición de NVIDIA del mundo virtual al físico.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • بالعربية
  • Português (Brasil)
  • 简体中文
  • English
  • Español
  • Français (Afrique)
  • Bahasa Indonesia
  • 日本語
  • Português (Portugal)
  • Русский
  • 繁體中文
  • Українська
  • Tiếng Việt