La plateforme de niveau nucléaire Vera Rubin est lancée, comment NVIDIA va-t-elle réécrire le nouveau paysage de la puissance de calcul AI|Fuite CES 2026
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
La plateforme de niveau nucléaire Vera Rubin est lancée, comment NVIDIA va-t-elle réécrire le nouveau paysage de la puissance de calcul AI|Fuite CES 2026
黄仁勳这一次没有端出消费级显示卡,而是直接把压箱底的杀手锏搬了出来。
在CES 2026上,NVIDIA正式发布了Vera Rubin运算平台,这个以发现暗物质的天文学家命名的系统,重达2.5吨。舞台上,黄仁勳用一个大胆的举措点燃了全场——直接将这台巨型AI服务器机架搬上演讲台,宣告了一个新时代的到来。
极致协同设计,打破单芯片惯例
过去,NVIDIA有个不成文的规则:每代产品最多改1-2颗晶片。但Vera Rubin彻底打破了这个传统。
这次,NVIDIA一口气重新设计了6款晶片,全面进入量产阶段。为什么如此激进?因为摩尔定律正在放缓,传统的效能提升路线已经跟不上AI模型每年10倍的增长速度。所以NVIDIA采取了「极致协同设计」策略——在晶片、系统平台的每个层级同时创新。
这6款晶片包括:
Vera CPU:88个客製核心,176个执行緒,系统记憶体达1.5TB(是前代Grace的3倍),NVLink C2C频宽高达1.8TB/s。
Rubin GPU:NVFP4推理算力50PFLOPS,是前代的5倍,拥有3360亿晶体(比Blackwell增加1.6倍),搭载第三代Transformer引擎可动态调整精度。
ConnectX-9网卡:基于200G PAM4 SerDes的800Gb/s乙太网,支援可程式化RDMA与数据通路加速。
BlueField-4 DPU:专为AI存储而建,搭配64核Grace CPU,面向新一代SmartNIC与存储处理器。
NVLink-6交换晶片:连接18个运算节点、72个Rubin GPU,在其架构下,每个GPU可获得3.6TB/s的all-to-all通訊频宽。
Spectrum-6光乙太网交换晶片:512通道×200Gbps,整合台积电COOP工艺的硅光子技术,配备共封装光学介面。
性能跨越式提升,吞吐量翻10倍
整合这6款晶片后,Vera Rubin NVL72系统的性能实现了全面超越。
在NVFP4推理任务中达到3.6 EFLOPS(相比Blackwell提升5倍),训练性能达2.5 EFLOPS(提升3.5倍)。存储方面,NVL72配备54TB LPDDR5X记忆体(前代的3倍),20.7TB HBM容量(提升1.5倍)。频宽性能上,HBM4频宽达1.6PB/s(提升2.8倍),Scale-Up频宽高达260TB/s(增长2倍)。
最关键的指标是吞吐量(每瓦-每美元可完成的AI Token数),相比Blackwell提升了10倍。对于造价500亿美元的千兆瓦数据中心而言,这意味着营收能力将直接翻倍。
训练一个10兆参数模型,Rubin只需Blackwell系统数量的1/4,生成Token的成本约为1/10。
工程创新:从复杂接线到即插即用
工程设计上的突破同样值得关注。
过去的超算节点需要接43根线缆,组装耗时2小时,还容易装错。Vera Rubin的方案激进得多——0根线缆,仅用6根液冷管线,5分钟搞定连接。
机架后面布满了总长3.2公里的铜缆,5000根铜缆构成NVLink主干网络,支援400Gbps传输速度。黄仁勳开玩笑说:“你得是体格很好的CEO才能胜任这份工作”。
KV Cache困局的终极解决方案
AI应用中的最大痛点,是上下文记忆体不足。当AI对话变长、模型变大时,KV Cache(键值快取)占用的HBM记忆体很快就会饱和。
Vera Rubin的做法是:在机架内部署BlueField-4处理器专门管理KV Cache。每个节点配4个BlueField-4,背後有150TB上下文记忆体,分配到GPU时,每块GPU额外获得16TB记忆体。这几乎是自带记忆体(约1TB)的16倍,而频宽保持200Gbps不打折。
要让分布在几十个机架、上万块GPU上的"便签"像一块统一记忆体那样协同运作,网络必须同时做到「大、快、稳」。这就是Spectrum-X的使命——NVIDIA全球首款专为生成式AI设计的端到端乙太网平台。
在一个千兆瓦数据中心,Spectrum-X能带来25%的吞吐提升,相当于节省50亿美元。黄仁勳的评价很直白:“这个网络系统几乎是『白送』的。”
物理AI崛起,多模态应用齐发力
硬件之外,软件生态同样是看点。黄仁勳强调,过去十年投入的约10兆美元运算资源正在被徹底现代化,但这不仅是硬件升级,更是软件范式的转移。
他点名表扬了DeepSeek V1的突破,认为开源推理系统激发了整个产业的发展浪潮。虽然开源模型目前落后最顶尖模型约6个月,但每隔半年就有新模型出现,这种迭代速度吸引了创业者、巨头和研究人员都不愿错过。
NVIDIA这次也没有只卖显示卡,而是构建了价值数十亿美元的DGX Cloud超级电脑,开发了La Proteina和OpenFold 3等前沿模型,推出涵盖生物医药、物理AI、智能体、机器人、自动驾驶等领域的开源模型生态。
Alpamayo:具有推理能力的自动驾驶核彈
物理AI的终极应用就是Alpamayo——全球首个具备思考和推理能力的自动驾驶模型。
与传统自动驾驶的规则引擎不同,Alpamayo是端到端训练的系统,能够解决自动驾驶的「长尾问题」。面对从未见过的复杂路况,它不再是死板执行代码,而是能像人类驾驶一样进行推理与决策。
演示中,车辆驾驶方式惊人地自然,能将极端复杂的场景拆解为基础常识处理。黄仁勳宣布,搭载Alpamayo技术栈的宾士CLA将在今年第一季度于美国上线,随后陆续登陆欧洲和亚洲。
这辆车被NCAP评为全球最安全的汽车,秘诀在于NVIDIA独特的「双重安全栈」设计——当端到端AI模型对路况信心不足时,系统立即切换回传统防护模式,确保绝对安全。
机器人战略全景,工厂本身成为最大机器人
在机器人赛道,NVIDIA正与九大顶级AI及硬件制造商展开竞争。所有机器人都将搭载Jetson小型电脑,在Omniverse的Isaac模拟器中接受训练。
黄仁勳邀请波士顿动力、Agility等人形和四足机器人登台,强调最大的机器人其实是工厂本身。NVIDIA的愿景是,未来晶片设计、系统设计、工厂模擬,都将由物理AI加速完成。
从芯片设计到真实制造,一切都将在虚拟环境中完成验证,这正是NVIDIA从虚拟世界向物理世界的重大转向。