Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Вера Рубін — платформа рівня ядерної бомби, як NVIDIA змінює новий формат обчислювальної потужності AI|CES 2026 спойлери
黃仁勳這一次沒有端出消費級顯示卡,而是直接把壓箱底的殺手鐧搬了出來。
在CES 2026上,NVIDIA正式發布了Vera Rubin運算平台,這個以發現暗物質的天文學家命名的系統,重達2.5噸。舞台上,黃仁勳用一個大膽的舉措點燃了全場——直接將這台巨型AI伺服器機架搬上演講台,宣告了一個新時代的到來。
極致協同設計,打破單晶片慣例
過去,NVIDIA有個不成文的規則:每代產品最多改1-2顆晶片。但Vera Rubin徹底打破了這個傳統。
這次,NVIDIA一口氣重新設計了6款晶片,全面進入量產階段。為什麼如此激進?因為摩爾定律正在放緩,傳統的效能提升路線已經跟不上AI模型每年10倍的增長速度。所以NVIDIA採取了「極致協同設計」策略——在晶片、系統平台的每個層級同時創新。
這6款晶片包括:
Vera CPU:88個客製核心,176個執行緒,系統記憶體達1.5TB(是前代Grace的3倍),NVLink C2C頻寬高達1.8TB/s。
Rubin GPU:NVFP4推理算力50PFLOPS,是前代的5倍,擁有3360億晶體(比Blackwell增加1.6倍),搭載第三代Transformer引擎可動態調整精度。
ConnectX-9網卡:基於200G PAM4 SerDes的800Gb/s乙太網,支援可程式化RDMA與資料通路加速。
BlueField-4 DPU:專為AI存儲而建,搭配64核Grace CPU,面向新一代SmartNIC與存儲處理器。
NVLink-6交換晶片:連接18個運算節點、72個Rubin GPU,在其架構下,每個GPU可獲得3.6TB/s的all-to-all通訊頻寬。
Spectrum-6光乙太網交換晶片:512通道×200Gbps,整合台積電COOP工藝的硅光子技術,配備共封裝光學介面。
性能跨越式提升,吞吐量翻10倍
整合這6款晶片後,Vera Rubin NVL72系統的性能實現了全面超越。
在NVFP4推理任務中達到3.6 EFLOPS(相比Blackwell提升5倍),訓練性能達2.5 EFLOPS(提升3.5倍)。存儲方面,NVL72配備54TB LPDDR5X記憶體(前代的3倍),20.7TB HBM容量(提升1.5倍)。頻寬性能上,HBM4頻寬達1.6PB/s(提升2.8倍),Scale-Up頻寬高達260TB/s(增長2倍)。
最關鍵的指標是吞吐量(每瓦-每美元可完成的AI Token數),相比Blackwell提升了10倍。對於造價500億美元的千兆瓦資料中心而言,這意味著營收能力將直接翻倍。
訓練一個10兆參數模型,Rubin只需Blackwell系統數量的1/4,生成Token的成本約為1/10。
工程創新:從複雜接線到即插即用
工程設計上的突破同樣值得關注。
過去的超算節點需要接43根線纜,組裝耗時2小時,還容易裝錯。Vera Rubin的方案激進得多——0根線纜,僅用6根液冷管線,5分鐘搞定連接。
機架後面布滿了總長3.2公里的銅纜,5000根銅纜構成NVLink主幹網路,支援400Gbps傳輸速度。黃仁勳開玩笑說:「你得是體格很好的CEO才能勝任這份工作」。
KV Cache困局的終極解決方案
AI應用中的最大痛點,是上下文記憶體不足。當AI對話變長、模型變大時,KV Cache(鍵值快取)佔用的HBM記憶體很快就會飽和。
Vera Rubin的做法是:在機架內部署BlueField-4處理器專門管理KV Cache。每個節點配4個BlueField-4,背後有150TB上下文記憶體,分配到GPU時,每塊GPU額外獲得16TB記憶體。這幾乎是自帶記憶體(約1TB)的16倍,而頻寬保持200Gbps不打折。
要讓分佈在幾十個機架、上萬塊GPU上的"便箋"像一塊統一記憶體那樣協同運作,網路必須同時做到「大、快、穩」。這就是Spectrum-X的使命——NVIDIA全球首款專為生成式AI設計的端到端乙太網平台。
在一個千兆瓦資料中心,Spectrum-X能帶來25%的吞吐提升,相當於節省50億美元。黃仁勳的評價很直白:「這個網路系統幾乎是『白送』的。」
物理AI崛起,多模態應用齊發力
硬體之外,軟體生態同樣是看點。黃仁勳強調,過去十年投入的約10兆美元運算資源正在被徹底現代化,但這不僅是硬體升級,更是軟體範式的轉移。
他點名表揚了DeepSeek V1的突破,認為開源推理系統激發了整個產業的發展浪潮。雖然開源模型目前落後最頂尖模型約6個月,但每隔半年就有新模型出現,這種迭代速度吸引了創業者、巨頭和研究人員都不願錯過。
NVIDIA這次也沒有只賣顯示卡,而是構建了價值數十億美元的DGX Cloud超級電腦,開發了La Proteina和OpenFold 3等前沿模型,推出涵蓋生物醫藥、物理AI、智能體、機器人、自動駕駛等領域的開源模型生態。
Alpamayo:具有推理能力的自動駕駛核彈
物理AI的終極應用就是Alpamayo——全球首個具備思考和推理能力的自動駕駛模型。
與傳統自動駕駛的規則引擎不同,Alpamayo是端到端訓練的系統,能夠解決自動駕駛的「長尾問題」。面對從未見過的複雜路況,它不再是死板執行程式碼,而是能像人類駕駛一樣進行推理與決策。
演示中,車輛駕駛方式驚人地自然,能將極端複雜的場景拆解為基礎常識處理。黃仁勳宣布,搭載Alpamayo技術栈的賓士CLA將在今年第一季度於美國上線,隨後陸續登陸歐洲和亞洲。
這輛車被NCAP評為全球最安全的汽車,祕訣在於NVIDIA獨特的「雙重安全栈」設計——當端到端AI模型對路況信心不足時,系統立即切換回傳統防護模式,確保絕對安全。
機器人戰略全景,工廠本身成為最大機器人
在機器人賽道,NVIDIA正與九大頂級AI及硬體製造商展開競爭。所有機器人都將搭載Jetson小型電腦,在Omniverse的Isaac模擬器中接受訓練。
黃仁勳邀請波士頓動力、Agility等人形和四足機器人登台,強調最大的機器人其實是工廠本身。NVIDIA的願景是,未來晶片設計、系統設計、工廠模擬,都將由物理AI加速完成。
從晶片設計到真實製造,一切都將在虛擬環境中完成驗證,這正是NVIDIA從虛擬世界向物理世界的重大轉向。