Jensen Huang llega con 2500 kilos de "monstruo", NVIDIA Vera Rubin revoluciona por completo la industria de la IA

La última vez que NVIDIA no llevó tarjetas gráficas de consumo a CES fue hace 5 años. Pero esta vez fue diferente: Jensen Huang subió al escenario vestido con su emblemática chaqueta de cocodrilo, pero trajo algo de peso: un armario de servidor de 2.5 toneladas, y una plataforma de computación Vera Rubin que podría revolucionar toda la industria de la IA.

Este sistema, nombrado en honor a la astrónoma Vera Rubin (quien descubrió la materia oscura), aborda el problema más apremiante en la era de la IA: los recursos de cálculo de 10 billones de dólares están en plena modernización.

Desde una sola máquina, entender cómo NVIDIA juega a la “integración de chips”

Cuando la ley de Moore tradicional empieza a fallar, NVIDIA opta por una ruta de integración extrema. Esta vez, rompieron con la tradición de mejorar solo 1-2 chips por generación: Vera Rubin rediseñó simultáneamente 6 chips, todos en fase de producción en masa.

Estos 6 chips son:

  • Vera CPU: 88 núcleos Olympus, 176 hilos en paralelo, 227 mil millones de transistores en un solo chip
  • Rubin GPU: rendimiento de inferencia de 50 PFLOPS (5 veces más que Blackwell anterior), 336 mil millones de transistores
  • Tarjeta de red ConnectX-9: Ethernet de 800 Gbps, soporte para aceleración RDMA programable
  • BlueField-4 DPU: diseñado para la próxima generación de plataformas de almacenamiento AI, 126 mil millones de transistores
  • Chips de intercambio NVLink-6: conecta 18 nodos de cálculo, 72 GPUs Rubin trabajando en conjunto
  • Switch óptico Ethernet Spectrum-6: 512 canales de 200 Gbps, 352 mil millones de transistores

Solo los parámetros pueden parecer aburridos, pero los números clave son estos: entrenar un modelo de 100 billones de parámetros requiere solo una cuarta parte del sistema Blackwell. El costo para generar un token se reduce a una décima parte.

La revolución en densidad de cálculo detrás: ingeniería en acción

Antes, montar un nodo de supercomputadora requería 43 cables, 2 horas de ensamblaje y era propenso a errores. El nodo Vera Rubin no tiene cables eléctricos, solo 6 tubos de agua de enfriamiento líquido: el tiempo de instalación se reduce a 5 minutos.

En la parte trasera del armario hay casi 3.2 km de cables de cobre, 5000 cables conforman la red troncal NVLink con un ancho de banda de 400 Gbps. Jensen Huang bromeó: “Solo un CEO en buena forma puede mover esto.”

Lo más importante es la actualización de memoria: el sistema NVL72 tiene 54 TB de memoria LPDDR5X (el triple que la generación anterior) y 20.7 TB de HBM, con un ancho de banda de HBM4 de 1.6 PB/s. Aunque el rendimiento aumenta entre 3.5 y 5 veces, el número de transistores solo crece 1.7 veces, reflejando avances en la tecnología de semiconductores.

Rompiendo el “problema de cola larga”: de capacidad a aplicación

Un cuello de botella en el entrenamiento de IA siempre ha sido la memoria de contexto insuficiente. Los modelos grandes generan un “KV Cache” (caché de claves y valores), que es la “memoria de trabajo” de la IA. A medida que las conversaciones se alargan y los modelos crecen, la capacidad de HBM a menudo no es suficiente.

La solución de Vera Rubin es desplegar procesadores BlueField-4 dentro del armario para gestionar el KV cache. Cada nodo tiene 4 BlueField-4, cada uno puede ofrecer 150 TB de almacenamiento de contexto: tras asignarlo a la GPU, cada GPU obtiene 16 TB adicionales de memoria (la propia GPU tiene aproximadamente 1 TB), con una velocidad de transferencia de 200 Gbps, sin cuellos de botella en rendimiento.

Para que estas “notas” dispersas en decenas de armarios y miles de GPUs funcionen como una memoria unificada, la red debe ser lo suficientemente grande, rápida y estable. Ahí es donde entra Spectrum-X: la primera plataforma Ethernet diseñada para generación de IA, que integra la tecnología de fotónica de silicio de TSMC, con 512 canales de 200 Gbps.

Jensen Huang hizo un cálculo: un centro de datos de 1 GW cuesta 50 mil millones de dólares, y Spectrum-X puede aumentar el rendimiento en un 25%, ahorrando 5 mil millones de dólares. “Se puede decir que esta red es prácticamente gratis.”

“Impacto de código abierto” y cambio en la industria

Volviendo al inicio del discurso, Jensen Huang lanzó un número: en los últimos diez años, se han invertido 10 billones de dólares en recursos de cálculo en total. Pero esto no es solo una actualización de hardware, sino un cambio en el paradigma de programación.

El año pasado, la apertura de DeepSeek V1 sorprendió a todos. Como el primer sistema de inferencia de código abierto, generó una ola de desarrollo en toda la industria. Modelos como Kimi K2 y DeepSeek V3.2 de China actualmente ocupan los puestos 1 y 2 en rankings de código abierto.

Jensen Huang admitió que, aunque los modelos de código abierto pueden estar unas seis meses por detrás del estado del arte, cada medio año surgen nuevos modelos. Esta velocidad de iteración hace que startups, gigantes y centros de investigación no quieran quedarse atrás — NVIDIA no es la excepción. Por eso, no solo venden “pico”, sino que también invierten miles de millones en supercomputadoras DGX Cloud, y desarrollan modelos como La Proteina (síntesis de proteínas) y OpenFold 3.

La familia de modelos de código abierto Nemotron cubre áreas como voz, multimodalidad, RAG, seguridad, y cada vez más empresas los implementan.

La “computadora de tres capas” para IA física

Si los grandes modelos de lenguaje resuelven los problemas del “mundo digital”, el siguiente objetivo es conquistar el “mundo físico”. Para que la IA entienda las leyes físicas y sobreviva en la realidad, necesita datos extremadamente raros.

Jensen Huang resumió las “tres computadoras” que necesita la IA física:

  1. Computadora de entrenamiento — sistemas de alto rendimiento con tarjetas de entrenamiento (como la arquitectura GB300)
  2. Computadora de inferencia — “pequeños cerebros” integrados en robots y autos, responsables de decisiones en tiempo real
  3. Computadora de simulación — incluyendo Omniverse y Cosmos, para que la IA aprenda y reciba retroalimentación en entornos virtuales

El sistema Cosmos puede generar entornos de entrenamiento físicos en masa para la IA. Basado en esta arquitectura, Jensen Huang presentó oficialmente el primer modelo de conducción autónoma de extremo a extremo: Alpamayo.

A diferencia de los sistemas tradicionales, Alpamayo es un entrenamiento verdaderamente de extremo a extremo. Su avance radica en resolver el “problema de cola larga” de la conducción autónoma: frente a situaciones desconocidas y complejas en la carretera, Alpamayo no ejecuta código rígido, sino que razona como un humano. “Te dirá qué hacer a continuación y por qué.” En la demostración, el estilo de conducción del vehículo fue natural y fluido, descomponiendo condiciones complejas en reglas básicas.

Ya hay implementaciones: el Mercedes CLA con tecnología Alpamayo se lanzará en EE. UU. en el primer trimestre de este año, y luego llegará a Europa y Asia. Este coche fue calificado como el más seguro del mundo por NCAP, gracias a la exclusiva doble pila de seguridad de NVIDIA: cuando la IA de extremo a extremo no está segura, el sistema cambia automáticamente a un modo más tradicional y seguro.

La legión de robots y las fábricas que son robots

La estrategia de NVIDIA para robots también es ambiciosa. Todos los robots llevarán una mini computadora Jetson, entrenada en el simulador Isaac de Omniverse. Estas tecnologías se integran en ecosistemas industriales como Synopsys, Cadence y Siemens.

En el escenario, aparecieron robots humanoides de Boston Dynamics y Agility, así como robots de Disney. Jensen Huang bromeó: “Estos adorables seres serán diseñados, fabricados y probados en computadoras, y antes de sentir la gravedad real, ya habrán ‘vivido’ una vez.”

La visión final de NVIDIA es acelerar toda la cadena, desde el diseño de chips básicos, la arquitectura de sistemas, hasta la simulación en fábricas, todo con IA física. Esto incluye la creación de mapas físicos en nuevas regiones y aplicaciones, como el mapa físico de Asia, para verificar el rendimiento de vehículos autónomos y robots en diferentes condiciones geográficas.

La lógica de “vender armas en tiempos de guerra”

Si no fuera Jensen Huang, parecería una conferencia de alguna empresa de modelos de IA. Cuando el tema de la burbuja de IA y la desaceleración de Moore se intensifican, Jensen Huang parece querer reavivar nuestra confianza en la IA — mostrando lo que realmente puede hacer.

Desde la potente plataforma de chips Vera Rubin, pasando por el énfasis en aplicaciones y software, hasta la IA física, conducción autónoma y robots, con casos concretos, ahora participan activamente en la competencia en el mundo real. Antes, creaban chips para mundos virtuales; ahora, participan en demostraciones, centrados en la IA física y en competir en el mundo físico real.

Al fin y al cabo, solo en “tiempos de guerra” los armamentos siguen vendiéndose sin parar.


Easter egg: Debido a limitaciones de tiempo en CES, Jensen Huang no terminó de mostrar todas las diapositivas. La parte no presentada fue convertida en un cortometraje humorístico.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)