Gate 广场创作者新春激励正式开启,发帖解锁 $60,000 豪华奖池
如何参与:
报名活动表单:https://www.gate.com/questionnaire/7315
使用广场任意发帖小工具,搭配文字发布内容即可
丰厚奖励一览:
发帖即可可瓜分 $25,000 奖池
10 位幸运用户:获得 1 GT + Gate 鸭舌帽
Top 发帖奖励:发帖与互动越多,排名越高,赢取 Gate 新年周边、Gate 双肩包等好礼
新手专属福利:首帖即得 $50 奖励,继续发帖还能瓜分 $10,000 新手奖池
活动时间:2026 年 1 月 8 日 16:00 – 1 月 26 日 24:00(UTC+8)
详情:https://www.gate.com/announcements/article/49112
Jensen Huang带着2500公斤的"怪兽"来了,NVIDIA Vera Rubin让AI产业彻底换血
上一次NVIDIA在CES上没带消费级显卡,已经是5年前的事了。但这次不同——Jensen Huang穿着标志性的鳄鱼皮夹克走上舞台,却带来了重量级的东西:一台重达2.5吨的服务器机柜,以及可能会重构整个AI产业的Vera Rubin计算平台。
这个用天文学家Vera Rubin命名的系统(她发现了暗物质),解决的是AI时代最紧迫的问题——10万亿美元的计算资源正在面临彻底现代化的需求。
从一台机器看懂NVIDIA如何玩"芯片整合"
当传统的摩尔定律逐渐失效,NVIDIA选择了极端整合的路线。这一次,他们打破了每代产品最多改进1-2颗芯片的传统——Vera Rubin同时重设计了6颗芯片,全部进入大规模量产阶段。
这6颗芯片分别是:
单看参数可能很枯燥,但关键数字是这样的——训练一个100万亿参数的模型,只需要Blackwell系统数量的1/4。生成一个token的成本下降到十分之一。
计算密度提升的背后:工程学革命
原来搭建一个超算节点需要43条线缆,组装要2小时,还容易出错。Vera Rubin的节点没有任何电气连接线,只需6条液冷水管——安装时间缩短到5分钟。
机柜背部有近3.2公里的铜缆,5000条线构成NVLink骨干网,提供400Gbps带宽。Jensen Huang开玩笑说:“得是个身体好的CEO才能搬动这东西。”
更关键的是内存升级——NVL72系统拥有54TB LPDDR5X内存(是前代的3倍)和20.7TB HBM,HBM4带宽达1.6 PB/s。尽管性能提升了3.5-5倍,但晶体管数仅增加了1.7倍,这反映了半导体工艺的进步。
破解"长尾问题":从能力到应用
AI训练中一直有个瓶颈——上下文记忆不足。大模型工作时会生成"KV Cache"(键值缓存),它是AI的"工作记忆"。随着对话拉长、模型变大,HBM容量常常不够用。
Vera Rubin的解决方案是在机柜内部署BlueField-4处理器来管理KV缓存。每个节点配4个BlueField-4,每个能提供150TB上下文存储——分配给GPU后,每颗GPU额外获得16TB内存(GPU自身约1TB),传输速度保持在200Gbps,不会出现性能瓶颈。
为了让分散在数十个机柜、数千颗GPU上的这些"笔记"像一块统一内存一样运作,网络必须足够大、足够快、足够稳定。这就是Spectrum-X的用处——全球首个"为生成式AI设计的以太网平台",集成TSMC的硅光子技术,512条×200Gbps通道。
Jensen Huang算过一笔账:1GW数据中心成本500亿美元,Spectrum-X能带来25%的吞吐量提升,相当于节省50亿美元。“你可以说这套网络系统基本是免费的。”
"开源震撼"与产业转向
回到演讲开场,Jensen Huang扔出一个数字——过去十年投入的10万亿美元计算资源正在全面升级。但这不仅仅是硬件更新,更是编程范式的转变。
去年DeepSeek V1的开源突破让所有人都吓了一跳。作为首个开源推理系统,它引发了整个行业的开发浪潮。中国的Kimi K2和DeepSeek V3.2分别是当下开源排名第1和第2的模型。
Jensen Huang坦言,尽管开源模型可能比业界领先水平滞后6个月,但每半年就有新模型涌现。这种迭代速度让初创、巨头、研究机构都不想落伍——NVIDIA也不例外。所以这次他们不只是"卖铲子",还投资了价值数十亿美元的DGX Cloud超算,开发La Proteina(蛋白质合成)和OpenFold 3等模型。
Nemotron开源模型家族涵盖语音、多模态、RAG、安全等方向,在多项排名中表现不俗,越来越多企业在部署它们。
物理AI的三层计算机
如果大语言模型解决了"数字世界"的问题,下一个野心是征服"物理世界"。要让AI理解物理规律、在现实中生存,需要极其稀有的数据。
Jensen Huang概括了物理AI需要的"三台计算机":
Cosmos系统能为AI生成海量物理世界的训练环境。基于这套架构,Jensen Huang正式发布了全球首个端到端自动驾驶模型Alpamayo。
与传统系统不同,Alpamayo是真正的端到端训练。它的突破在于解决了自动驾驶的"长尾问题"——面对路上陌生复杂的情况时,Alpamayo不是生硬执行代码,而是像人类一样推理。"它会告诉你接下来做什么,以及为什么这样做。"演示中,这辆车的驾驶风格自然流畅,能把复杂路况分解为基本规则。
已有实现——Mercedes CLA搭载Alpamayo技术将在今年第一季度在美国首发,随后进入欧洲和亚洲市场。这款车被NCAP评为全球最安全汽车,得益于NVIDIA独特的"双安全栈"设计——当端到端AI不确定时,系统自动切换到传统更稳妥的模式。
机器人军团与工厂即机器人
NVIDIA的机器人战略同样宏大。所有机器人都将配备Jetson迷你计算机,在Omniverse的Isaac模拟器中训练。这些技术被整合进Synopsys、Cadence、Siemens等工业生态中。
舞台上出现了Boston Dynamics和Agility的人形机器人、四足机器人,以及迪士尼的机器人。Jensen Huang打趣说:“这些可爱的家伙会被设计、制造,甚至在计算机里测试验证完毕,在接触真实重力之前就已经’活’过一次了。”
NVIDIA的终极想象是从基础芯片设计到系统架构再到工厂模拟,全部用物理AI加速——这包括对新地区、新应用场景的产业布局,比如在亚洲建立的物理测试图谱(mapa fizyczna azji),用来验证自动驾驶和机器人在不同地理条件下的表现。
"战争时期卖武器"的逻辑
如果不是Jensen Huang的话,你可能以为这是某个AI模型公司的发布会。当AI泡沫话题升温、摩尔定律放缓之际,Jensen Huang似乎想重燃我们对AI的信心——通过展示它真正能做什么。
从超强芯片平台Vera Rubin,到应用和软件的重点强调,再到物理AI、自动驾驶、机器人等具体落地案例——过去他们为虚拟世界造芯片,现在亲自参与演示,聚焦物理AI,在真实物理世界展开激烈竞争。
毕竟,只有"战争时期",武器才能继续畅销。
彩蛋:由于CES时间限制,Jensen Huang没讲完所有幻灯片。未展示的部分被制成了一部幽默短片。