Gate Booster 第 4 期:發帖瓜分 1,500 $USDT
🔹 發布 TradFi 黃金福袋原創內容,可得 15 $USDT,名額有限先到先得
🔹 本期支持 X、YouTube 發布原創內容
🔹 無需複雜操作,流程清晰透明
🔹 流程:申請成為 Booster → 領取任務 → 發布原創內容 → 回鏈登記 → 等待審核及發獎
📅 任務截止時間:03月20日16:00(UTC+8)
立即領取任務:https://www.gate.com/booster/10028?pid=allPort&ch=KTag1BmC
更多詳情:https://www.gate.com/announcements/article/50203
Jensen Huang揭幕超级計算新時代,Vera Rubin成為AI領域變局者
詹森·黃再次站上CES舞台,這位NVIDIA的掌舵人用一場聲勢浩大的技術發布,向整個產業展示了AI計算的未來方向。與往年不同的是,今年的重頭戲並非傳統意義上的消費級顯卡,而是一個重達2.5噸、整合了6款定制芯片的企業級超級計算平台——Vera Rubin。這個名字取自天文學家維拉·魯賓,寓意NVIDIA要繼續探索AI宇宙的新邊界。
Vera Rubin重構芯片設計邏輯,性能躍升背後的系統創新
在傳統研發模式中,NVIDIA通常遵循"每代產品僅革新1-2款芯片"的保守策略。但Vera Rubin打破了這一慣例,一次性設計並量產6款新芯片,這在業界屬於前所未有的舉措。詹森·黃將其稱為"極限協同設計"——在芯片架構和整體平台的各個層級上同步創新。
這6款芯片各司其職:Vera CPU採用NVIDIA定制的88核心Olympus架構,擁有1.5TB系統內存(相比前代Grace增加3倍),僅憑這一點就足以支撐更複雜的AI應用;Rubin GPU則是性能的絕對主力,推理能力達到50PFLOPS,是上代Blackwell的5倍,而晶體管數量僅增加1.6倍,這充分體現了設計效率的跨越。
除了這兩個"大腦",Vera Rubin還集成了ConnectX-9網卡、BlueField-4數據處理單元、NVLink-6交換晶片和Spectrum-6光以太網晶片。每一塊晶片都經過精心打磨,確保整個系統像一個有機體一樣協調運作。
從實際性能指標看,集成了Vera Rubin架構的NVL72系統,在推理任務中達到3.6 EFLOPS的計算能力,較Blackwell代際提升5倍;訓練性能達到2.5 EFLOPS,增幅3.5倍。更值得關注的是,這樣的性能提升僅伴隨晶體管數量增加1.7倍,這說明NVIDIA在半導體工藝和架構優化上都有重大突破。
物理設計層面的進步同樣驚人。以往的超級計算節點需要43根線纜連接、2小時的組裝時間且容易出錯,而Vera Rubin節點完全無需線纜,僅靠6根液冷管道,組裝時間壓縮到5分鐘。節點背後的NVLink主網由近3200公里的銅線和5000根銅纜組成,以400Gbps的速率進行數據傳輸,這樣的工程複雜度讓詹森·黃不禁開玩笑說,“可能要非常強壯的CEO才搬得動”。
內存革命與網路加速,解決AI應用的關鍵瓶頸
AI應用面臨的一大痛點是上下文內存不足。當AI模型進行對話任務時會產生"KV Cache"——這是AI的工作記憶。隨著對話輪數增加和模型規模擴大,傳統的HBM(高帶寬內存)迅速告急。
Vera Rubin的解決方案是部署BlueField-4處理單元來獨立管理KV Cache。每個節點配備4個BlueField-4,每個附帶150TB的上下文內存,這意味著每個GPU可額外增加16TB的內存容量——而單個GPU原本只有約1TB的集成內存,這個數字級的增長堪稱革命性。更關鍵的是,這種擴展並未降低存取速度,200Gbps的帶寬保持不變。
但光有內存還不夠,當工作記憶需要跨越數十個伺服器、數萬個GPU協調工作時,網路基礎設施成為新的瓶頸。Spectrum-X應運而生,這是NVIDIA推出的首個"AI生成式專用"端到端以太網平台。它採用TSMC的COOP工藝,集成硅光子技術,支持512通道×200Gbps的傳輸速率。
從經濟帳來看,對於投資50億美元的千瓦級資料中心,Spectrum-X能將吞吐量提升25%,這相當於節省5億美元——詹森·黃形容這套網路系統"幾乎等於白送"。
此外,Vera Rubin在安全計算方面也有布局。所有資料在傳輸、存儲和計算過程中都被加密,包括PCIe通道、NVLink、CPU-GPU通信及其他總線。企業可以放心地將自有模型部署到外部系統而不擔心資料外洩。
開源浪潮與AI民主化,新一代模型重塑產業生態
發布會的一大看點是詹森·黃對開源AI社群的熱情肯定。他特意提及去年DeepSeek V1的突破性發布如何撼動全球,稱其為"首個開源推理模型"直接點燃了整個產業的創新浪潮。演講幻燈片上,國內的Kimi和DeepSeek V3.2分別位列全球開源模型的第一和第二梯隊。
詹森·黃坦言,雖然目前的開源模型可能落後業界領先方案約半年,但每半年都會有新的突破性模型出現。這樣的迭代速度讓創業公司、科技巨頭以及研究機構都不敢放鬆,NVIDIA自己也深知不能缺席這場競爭。
因此,NVIDIA不再僅僅充當晶片製造商的角色。他們構建了價值數十億美元的DGX Cloud超級計算集群,開發了蛋白質合成模型La Proteina和OpenFold 3等前沿應用,並持續擴展以醫療、物理AI、智能體、機器人和自動駕駛為核心的開源生態。
Nemotron系列模型家族也是亮點,涵蓋語音、多模態、檢索增強生成和安全防護等多個維度。這些模型在多個權威排行榜上表現卓越,已有眾多企業開始實際應用。
AI物理化身Alpamayo,自動駕駛進入推理時代
如果說大語言模型解決了"數字世界"的問題,那麼詹森·黃接下來的野心就是征服"物理世界"。他提出了"三核心計算機"架構來推動物理AI的發展:訓練計算機(基於傳統GPU卡的訓練系統)、推理計算機(部署在機器人或自動駕駛車輛邊緣的"小腦")、模擬計算機(Omniverse和Cosmos提供的虛擬訓練環境)。
這個三層架構的落地產品就是Alpamayo——NVIDIA正式推出的全球首個具備思維能力的自動駕駛系統。不同於傳統的規則驅動自動駕駛,Alpamayo是端到端的深度學習系統,其革新之處在於解決了自動駕駛的"長尾問題"。
當車輛遭遇前所未有的複雜路況時,Alpamayo不是簡單執行預編程指令,而是能夠像人類駕駛員一樣進行推理和決策。更妙的是,系統會"告訴你它接下來要做什麼,以及為什麼做出這樣的決定"。在現場演示中,這輛自動駕駛車展現出令人驚艷的能力,能將極其複雜的交通場景分解成基礎常識來應對。
Mercedes CLA成為了Alpamayo技術的首個商用落地。詹森·黃宣布,這款搭載該技術的車型將在今年第一季度在美國正式上市,隨後還會陸續進入歐洲和亞洲市場。這輛車還獲得了NCAP的最高安全評分,這源於NVIDIA設計的獨特"雙層安全堆疊"——當端到端AI模型對路況的信心不足時,系統會立即切換到更穩妥的傳統安全模式,確保萬無一失。
机器人生态与工业未来,从虚拟世界延伸到现实制造
發布會的另一個重頭是機器人策略。NVIDIA邀請了多個合作夥伴的機器人登台,包括類人機器人和Boston Dynamics的四足機器人等。詹森·黃強調,所有機器人都將搭載Jetson微型計算單元,在基於Omniverse的Isaac Simulator環境中完成訓練。
更宏大的願景是,NVIDIA正在將這套技術生態整合進Synopsys、Cadence、Siemens等工業軟體巨頭的體系中。在詹森·黃看來,最大的機器人其實是工廠本身。
從下往上看,NVIDIA的未來藍圖是:晶片設計、系統設計、工廠模擬都將由物理AI驅動加速。現場還出現了迪士尼機器人的驚喜亮相,詹森·黃幽默地對這些可愛的機器人說,“你們將在電腦中被設計、在電腦中被製造、甚至在面對真正的重力之前就在電腦中接受檢驗和認證”。
如果只看發布會的後半段,人們可能誤以為這是某個機器人或模型公司的產品發布會。
從芯片供應商到AI賦能者,詹森·黃的戰略轉身
在關於AI泡沫爭議的大背景下,詹森·黃這場發布會的深層邏輯值得玩味。除了摩爾定律的放緩讓傳統性能優化路線遇冷外,他顯然還想通過Vera Rubin這樣的平台級產品來證明AI的實際價值——從計算能力的堆砌升級到真實應用的落地。
這種戰略轉向從晶片賣家向AI賦能者的演變不僅限於硬體。更重要的是NVIDIA開始深度投入應用層和生態層——無論是開源模型的扶持、DGX Cloud的構建,還是Alpamayo自動駕駛、物理AI模型的開發,都在用實際產品和應用案例來講述AI如何真正改變世界。
最後一個有趣的細節是,由於CES發布會的時間限制,詹森·黃還準備了大量未及展示的演講幻燈片。他索性製作了一個幽默的影片,匯總這些未能當眾展示的內容,再次展現了這位行業領袖的個人風格——既嚴肅於技術創新,又不失對產業發展的寬鬆視野。