Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Platform Vera Rubin tingkat nuklir telah diluncurkan, bagaimana NVIDIA mengubah pola baru kekuatan AI|Spoiler CES 2026
黄仁勳这一次没有端出消费级显示卡,而是直接把压箱底的杀手锏搬了出来。
在CES 2026上,NVIDIA正式发布了Vera Rubin运算平台,这个以发现暗物质的天文学家命名的系统,重达2.5噸。舞台上,黄仁勳用一个大胆的举措点燃了全场——直接将这台巨型AI服务器机架搬上演讲台,宣告了一个新时代的到来。
极致协同设计,打破单芯片惯例
过去,NVIDIA有个不成文的规则:每代产品最多改1-2颗晶片。但Vera Rubin彻底打破了这个传统。
这次,NVIDIA一口气重新设计了6款晶片,全面进入量产阶段。为什么如此激进?因为摩尔定律正在放缓,传统的效能提升路线已经跟不上AI模型每年10倍的增长速度。所以NVIDIA采取了「极致协同设计」策略——在晶片、系统平台的每个层级同时创新。
这6款晶片包括:
Vera CPU:88个客製核心,176个执行緒,系统记憶体达1.5TB(是前代Grace的3倍),NVLink C2C频宽高达1.8TB/s。
Rubin GPU:NVFP4推理算力50PFLOPS,是前代的5倍,拥有3360亿晶体(比Blackwell增加1.6倍),搭载第三代Transformer引擎可动态调整精度。
ConnectX-9网卡:基于200G PAM4 SerDes的800Gb/s乙太网,支援可程式化RDMA与数据通路加速。
BlueField-4 DPU:专为AI存储而建,搭配64核Grace CPU,面向新一代SmartNIC与存储处理器。
NVLink-6交换晶片:连接18个运算节点、72个Rubin GPU,在其架构下,每个GPU可获得3.6TB/s的all-to-all通訊频宽。
Spectrum-6光乙太网交换晶片:512通道×200Gbps,整合台积电COOP工艺的硅光子技术,配备共封装光学介面。
性能跨越式提升,吞吐量翻10倍
整合这6款晶片后,Vera Rubin NVL72系统的性能实现了全面超越。
在NVFP4推理任务中达到3.6 EFLOPS(相比Blackwell提升5倍),训练性能达2.5 EFLOPS(提升3.5倍)。存储方面,NVL72配备54TB LPDDR5X记忆体(前代的3倍),20.7TB HBM容量(提升1.5倍)。频宽性能上,HBM4频宽达1.6PB/s(提升2.8倍),Scale-Up频宽高达260TB/s(增长2倍)。
最关键的指标是吞吐量(每瓦-每美元可完成的AI Token数),相比Blackwell提升了10倍。对于造价500亿美元的千兆瓦数据中心而言,这意味着营收能力将直接翻倍。
训练一个10兆参数模型,Rubin只需Blackwell系统数量的1/4,生成Token的成本约为1/10。
工程创新:从复杂接线到即插即用
工程设计上的突破同样值得关注。
过去的超算节点需要接43根线缆,组装耗时2小时,还容易装错。Vera Rubin的方案激进得多——0根线缆,仅用6根液冷管线,5分钟搞定连接。
机架后面布满了总长3.2公里的铜缆,5000根铜缆构成NVLink主干网络,支援400Gbps传输速度。黄仁勳开玩笑说:“你得是体格很好的CEO才能胜任这份工作”。
KV Cache困局的终极解决方案
AI应用中的最大痛点,是上下文记忆体不足。当AI对话变长、模型变大时,KV Cache(键值快取)占用的HBM记忆体很快就会饱和。
Vera Rubin的做法是:在机架内部署BlueField-4处理器专门管理KV Cache。每个节点配4个BlueField-4,背後有150TB上下文记忆体,分配到GPU时,每块GPU额外获得16TB记忆体。这几乎是自带记忆体(约1TB)的16倍,而频宽保持200Gbps不打折。
要让分布在几十个机架、上万块GPU上的"便签"像一块统一记忆体那样协同运作,网络必须同时做到「大、快、稳」。这就是Spectrum-X的使命——NVIDIA全球首款专为生成式AI设计的端到端乙太网平台。
在一个千兆瓦数据中心,Spectrum-X能带来25%的吞吐提升,相当于节省50亿美元。黄仁勳的评价很直白:“这个网络系统几乎是『白送』的。”
物理AI崛起,多模态应用齐发力
硬件之外,软件生态同样是看点。黄仁勳强调,过去十年投入的约10兆美元运算资源正在被徹底现代化,但这不仅是硬件升级,更是软件范式的转移。
他点名表扬了DeepSeek V1的突破,认为开源推理系统激发了整个产业的发展浪潮。虽然开源模型目前落后最顶尖模型约6个月,但每隔半年就有新模型出现,这种迭代速度吸引了创业者、巨头和研究人员都不愿错过。
NVIDIA这次也没有只卖显示卡,而是构建了价值数十亿美元的DGX Cloud超级电脑,开发了La Proteina和OpenFold 3等前沿模型,推出涵盖生物医药、物理AI、智能体、机器人、自动驾驶等领域的开源模型生态。
Alpamayo:具有推理能力的自动驾驶核彈
物理AI的终极应用就是Alpamayo——全球首个具备思考和推理能力的自动驾驶模型。
与传统自动驾驶的规则引擎不同,Alpamayo是端到端训练的系统,能够解决自动驾驶的「长尾问题」。面对从未见过的复杂路况,它不再是死板执行代码,而是能像人类驾驶一样进行推理与决策。
演示中,车辆驾驶方式惊人地自然,能将极端复杂的场景拆解为基础常识处理。黄仁勳宣布,搭载Alpamayo技术栈的宾士CLA将在今年第一季度于美国上线,随后陆续登陆欧洲和亚洲。
这辆车被NCAP评为全球最安全的汽车,秘诀在于NVIDIA独特的「双重安全栈」设计——当端到端AI模型对路况信心不足时,系统立即切换回传统防护模式,确保绝对安全。
机器人战略全景,工厂本身成为最大机器人
在机器人赛道,NVIDIA正与九大顶级AI及硬件制造商展开竞争。所有机器人都将搭载Jetson小型电脑,在Omniverse的Isaac模拟器中接受训练。
黄仁勳邀请波士顿动力、Agility等人形和四足机器人登台,强调最大的机器人其实是工厂本身。NVIDIA的愿景是,未来晶片设计、系统设计、工厂模擬,都将由物理AI加速完成。
从芯片设计到真实制造,一切都将在虚拟环境中完成验证,这正是NVIDIA从虚拟世界向物理世界的重大转向。