Jensen Huang apporte le "monstre" de 2500 kilogrammes, NVIDIA Vera Rubin révolutionne complètement l'industrie de l'IA

La dernière fois que NVIDIA n’a pas présenté de cartes graphiques grand public au CES, c’était il y a 5 ans. Mais cette fois, c’est différent — Jensen Huang, vêtu de sa veste emblématique en crocodile, est monté sur scène avec quelque chose de lourd : un rack serveur pesant 2,5 tonnes, ainsi qu’une plateforme de calcul Vera Rubin qui pourrait révolutionner toute l’industrie de l’IA.

Ce système nommé d’après l’astronome Vera Rubin (qui a découvert la matière noire) répond à la problématique la plus urgente de l’ère de l’IA — 10 000 milliards de dollars de ressources de calcul nécessitent une modernisation complète.

Comprendre comment NVIDIA joue la “fusion de puces” à travers une seule machine

Lorsque la loi de Moore traditionnelle commence à faiblir, NVIDIA a choisi une voie d’intégration extrême. Cette fois, ils ont brisé la limite habituelle d’amélioration de 1 à 2 puces par génération — Vera Rubin a redessiné 6 puces en même temps, toutes en production de masse.

Ces 6 puces sont :

  • Vera CPU : 88 cœurs Olympus, 176 threads en parallèle, 2 270 milliards de transistors sur une seule puce
  • Rubin GPU : performance d’inférence jusqu’à 50 PFLOPS (5 fois celle de Blackwell), 336 milliards de transistors
  • Carte réseau ConnectX-9 : Ethernet 800 Gbps, support RDMA programmable
  • BlueField-4 DPU : conçu pour la prochaine génération de plateformes de stockage IA, 126 milliards de transistors
  • Échangeur NVLink-6 : connecte 18 nœuds de calcul, 72 GPU Rubin en collaboration
  • Échangeur optique Spectrum-6 : 512 canaux à 200 Gbps, 352 milliards de transistors

Les paramètres seuls peuvent paraître arides, mais l’essentiel est le suivant — entraîner un modèle de 100 000 milliards de paramètres nécessite seulement un quart du système Blackwell. Le coût pour générer un token chute d’un ordre de magnitude.

La révolution derrière l’augmentation de la densité de calcul : une avancée en ingénierie

Construire un nœud de supercalculateur nécessitait 43 câbles, 2 heures d’assemblage, et était sujet à erreurs. Le nœud Vera Rubin n’a aucune connexion électrique, seulement 6 tuyaux de refroidissement liquide — le montage est réduit à 5 minutes.

À l’arrière du rack, près de 3,2 km de câbles en cuivre forment un backbone NVLink avec 5000 lignes, offrant une bande passante de 400 Gbps. Jensen Huang plaisante : “Il faut un CEO en bonne santé pour déplacer tout ça.”

Plus important encore, la mise à niveau de la mémoire — le système NVL72 dispose de 54 To de mémoire LPDDR5X (triplement de la capacité précédente) et 20,7 To de HBM, avec un débit de 1,6 PB/s. Bien que la performance ait été multipliée par 3,5 à 5, la quantité de transistors n’a augmenté que de 1,7, ce qui reflète les progrès du procédé semiconducteur.

Résoudre le " problème de la longue traîne" : de la capacité à l’application

Un des goulots d’étranglement dans l’entraînement de l’IA est la mémoire contextuelle insuffisante. Lorsqu’un grand modèle génère un “KV Cache” (cache de clés-valeurs), c’est la “mémoire de travail” de l’IA. Avec l’allongement des dialogues et l’augmentation de la taille des modèles, la capacité HBM est souvent insuffisante.

La solution de Vera Rubin consiste à déployer des processeurs BlueField-4 dans le rack pour gérer le KV cache. Chaque nœud en possède 4, offrant chacun 150 To de stockage contextuel — après attribution aux GPU, chaque GPU dispose de 16 To de mémoire supplémentaire (contre environ 1 To pour le GPU seul), avec une vitesse de transfert maintenue à 200 Gbps, évitant tout goulot d’étranglement.

Pour faire fonctionner ces “notes” dispersées dans plusieurs racks et milliers de GPU comme une mémoire unifiée, le réseau doit être suffisamment grand, rapide et stable. C’est là que Spectrum-X intervient — la première plateforme Ethernet conçue pour l’IA générative, intégrant la technologie de photonique silicium de TSMC, avec 512 canaux à 200 Gbps.

Jensen Huang a calculé : un centre de données de 1 GW coûte 50 milliards de dollars, et Spectrum-X peut augmenter le débit de 25 %, ce qui permet d’économiser 50 milliards de dollars. “On peut dire que ce réseau est pratiquement gratuit.”

“Lancement de l’open source” et tournant industriel

Pour revenir au début du discours, Jensen Huang a lancé un chiffre — les 10 000 milliards de dollars investis dans la dernière décennie en ressources de calcul sont en pleine modernisation. Mais il ne s’agit pas seulement de matériel, c’est aussi un changement de paradigme en programmation.

L’année dernière, la sortie open source de DeepSeek V1 a surpris tout le monde. En tant que premier système de raisonnement open source, il a déclenché une vague de développement dans l’industrie. Kimi K2 et DeepSeek V3.2, deux modèles chinois, occupent respectivement la première et la deuxième place dans le classement open source actuel.

Jensen Huang admet que, même si les modèles open source peuvent avoir un retard de 6 mois par rapport aux leaders du marché, de nouveaux modèles émergent toutes les 6 mois. Cette cadence d’itération pousse startups, géants et instituts de recherche à ne pas vouloir prendre de retard — NVIDIA ne fait pas exception. Ils ont donc investi plusieurs dizaines de milliards de dollars dans le supercalculateur DGX Cloud, et développent des modèles comme La Proteina (synthèse de protéines) et OpenFold 3.

La famille de modèles open source Nemotron couvre la voix, la multimodalité, RAG, la sécurité, etc., et performe dans plusieurs classements, avec une adoption croissante par les entreprises.

Les trois niveaux d’ordinateurs pour l’IA physique

Si les grands modèles linguistiques résolvent le problème du “monde numérique”, le prochain défi est de conquérir le “monde physique”. Pour que l’IA comprenne les lois physiques et survive dans la réalité, il faut des données extrêmement rares.

Jensen Huang résume les “trois ordinateurs” nécessaires à l’IA physique :

  1. Ordinateur d’entraînement — système haute performance avec cartes d’entraînement (ex. architecture GB300)
  2. Ordinateur d’inférence — “petit cerveau” intégré dans robots et voitures, responsable des décisions en temps réel
  3. Ordinateur de simulation — comprenant Omniverse et Cosmos, permettant à l’IA d’apprendre et de réagir dans un environnement virtuel

Le système Cosmos peut générer d’immenses environnements physiques pour l’entraînement de l’IA. Sur cette base, Jensen Huang a officiellement lancé le tout premier modèle de conduite autonome de bout en bout, Alpamayo.

Contrairement aux systèmes traditionnels, Alpamayo est un vrai entraînement de bout en bout. Sa percée consiste à résoudre le " problème de la longue traîne" en conduite autonome — face à des situations inconnues et complexes, Alpamayo ne se contente pas d’exécuter du code rigide, il raisonne comme un humain. “Il vous dira ce qu’il faut faire ensuite, et pourquoi.” Lors de la démonstration, la conduite de cette voiture était naturelle et fluide, capable de décomposer des situations complexes en règles fondamentales.

Une version déjà réalisée — Mercedes CLA équipée d’Alpamayo sera lancée au premier trimestre aux États-Unis, puis en Europe et en Asie. Ce véhicule a été classé comme la voiture la plus sûre au monde par NCAP, grâce à la conception unique de NVIDIA avec une “double pile de sécurité” — lorsque l’IA en bout de course est incertaine, le système bascule automatiquement vers un mode traditionnel plus fiable.

La légion de robots et l’usine devenue robot

La stratégie robotique de NVIDIA est également ambitieuse. Tous les robots seront équipés de mini-ordinateurs Jetson, entraînés dans l’émulateur Isaac d’Omniverse. Ces technologies seront intégrées dans les écosystèmes industriels de Synopsys, Cadence, Siemens, etc.

Sur scène, on voit des robots humanoïdes de Boston Dynamics et Agility, ainsi que des robots de Disney. Jensen Huang plaisante : “Ces petits gars adorables seront conçus, fabriqués, et même testés dans l’ordinateur, avant d’avoir connu la gravité réelle — ils auront déjà ‘vécu’ une première fois.”

L’objectif ultime de NVIDIA est d’accélérer tout le processus, de la conception des puces à l’architecture système, jusqu’à la simulation d’usine, en utilisant l’IA physique — cela inclut le déploiement dans de nouvelles régions, de nouveaux cas d’usage, comme la création de cartes physiques (mapa fizyczna azji) pour tester la conduite autonome et la robotique dans différents environnements géographiques.

La logique du “vente d’armes en temps de guerre”

Si ce n’était Jensen Huang, on pourrait croire qu’il s’agit d’une conférence d’un autre fabricant d’IA. Alors que le sujet de la bulle IA monte en flèche et que la loi de Moore ralentit, Jensen Huang semble vouloir raviver notre confiance en l’IA — en montrant ce qu’elle peut réellement faire.

Du super-plateforme de puces Vera Rubin, en passant par l’accent mis sur les applications et logiciels, jusqu’à l’IA physique, la conduite autonome et la robotique, en passant par des cas concrets — ils ont autrefois conçu des puces pour le monde virtuel, maintenant ils participent eux-mêmes à la démonstration, en se concentrant sur l’IA physique, dans le monde réel, où la compétition est féroce.

Après tout, en “temps de guerre”, les armes continuent de se vendre.


Easter egg : En raison du temps limité au CES, Jensen Huang n’a pas pu présenter toutes les diapositives. La partie non montrée a été transformée en une vidéo humoristique.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)