效能翻倍、能耗砍半!NVIDIA推出專為代理式AI設計的Vera CPU
在GTC 2026上,NVIDIA不僅發表完整的Vera Rubin平臺,更同步推出該平臺的核心大腦——Vera CPU。這款處理器被官方定義爲「世界上第一款專爲代理式AI和強化學習時代設計的處理器」,標誌着CPU在AI運算中的角色發生根本性轉變。
CPU不再是配角:代理式AI的「指揮中樞」
隨着AI從單純的模型運算走向能夠推理和行動的「代理」,負責協調這些工作的系統重要性急遽上升。NVIDIA執行長黃仁勳表示:「CPU不再只是單純地支持模型,而是正在驅動模型。憑藉突破性的效能和能源效率,Vera 解鎖了能思考得更快、擴展得更遠的AI系統」。
Vera CPU的設計目標非常明確:處理代理式AI背後複雜的邏輯任務。當GPU負責大規模平行運算時,Vera負責運行那些「思考」的工作——規劃任務、執行工具、與資料庫互動、執行程式碼、驗證結果。與傳統機架級CPU相比,Vera CPU在執行這類工作時,結果產出效率提升兩倍,速度快50%。
技術規格:專爲AI優化的「類CPU」架構
Vera CPU採用88個NVIDIA自行設計的「Olympus」核心,專爲編譯器、運行時引擎、分析管線、代理工具和編排服務提供高效能。每個核心都能透過NVIDIA的空間多執行緒技術同時運行兩個任務,適合在同時運行多個任務的多租戶AI工廠環境中,提供穩定且可預測的效能。
在記憶體子系統方面,Vera搭載第二代低功耗記憶體架構,基於LPDDR5X記憶體,提供高達1.2 TB/s的資料傳輸頻寬,是一般用途CPU頻寬的兩倍,但功耗僅爲一半,完美呈現「效能翻倍、能耗砍半」的設計理念。
與GPU的無縫協作:NVLink-C2C成關鍵
作爲Vera Rubin平臺的一部分,Vera CPU透過NVIDIA NVLink-C2C互連技術與Rubin GPU配對,提供高達1.8 TB/s的一致性傳輸頻寬,是PCIe Gen 6頻寬的7倍。這種超高頻寬的緊密耦合,讓CPU和GPU之間的資料共享達到前所未有的速度,對於需要即時協作的代理式AI工作負載極爲重要。
除了整合進NVL72機架,Vera CPU也能用於NVIDIA HGX Rubin NVL8系統的主機,負責協調GPU加速工作負載的資料移動與系統控制。
生態系與應用實例:從科學計算到即時串流
Vera CPU已經獲得廣泛的產業支持。雲端服務商如阿里巴巴、字節跳動、CoreWeave、Meta、Oracle Cloud Infrastructure等都計劃導入使用。系統合作伙伴則涵蓋Dell、HPE、聯想、Supermicro,以及華碩、富士康、技嘉、廣達、緯創等臺灣廠商。
具體應用案例也展現Vera CPU的潛力:
• AI程式設計工具Cursor將採用Vera CPU提升其AI編碼代理的整體吞吐量和效率,爲用戶提供更快速、更靈敏的體驗。
• 即時資料平臺Redpanda測試發現,運行Apache Kafka相容工作負載時,Vera CPU的延遲比他們測試過的其他系統低5.5倍。
• 德州先進運算中心 (TACC)在測試Vera CPU平臺後表示,其每核心效能和記憶體頻寬代表科學計算的巨大飛躍,計劃在今年稍晚於其「Horizon」系統中Vera CPU節點。
分析觀點:NVIDIA的「總體戰爭」與CPU市場的重新洗牌
NVIDIA在GTC 2026具體公佈的Vera Rubin平臺,其戰略意義遠超任何一款單一晶片,其象徵NVIDIA從「顯示卡公司」向「全端式AI基礎設施霸主」的終極進化。
首先,這是對「代理式AI」基礎設施需求的精準卡位。當業界還在熱議AI代理的應用場景時,NVIDIA已經着手解決其背後最頭痛的工程難題:如何協調數以萬計的CPU環境來驗證GPU產生的結果?如何管理百萬token級別的上下文記憶體?Vera Rubin平臺給出的答案是:將CPU、GPU、網路、儲存全部重新設計,並且透過NVLink和Spectrum網路將其融合成一臺巨大的虛擬電腦,讓想要打造大規模AI代理服務的企業,幾乎沒有理由不選擇這個「開箱即用」的完整方案。
其次,Vera CPU的問世,則是對傳統CPU巨頭英特爾和AMD的正面突襲。雖然NVIDIA強調Vera CPU是「專爲AI設計」,但其高單核效能、驚人的記憶體頻寬,以及與GPU的無縫整合,將對傳統的通用伺服器CPU市場產生強烈衝擊。
特別是當AI工廠需要大規模佈署純CPU環境來進行強化學習時,Vera CPU提供的「兩倍效率、一半功耗」將成爲極具說服力的採購導入理由。這不僅是搶奪市佔率,更是重新定義「AI時代的CPU應該長什麼樣子」。
再者,整合Groq的LPU,則是將其極低的推論延遲特性納入NVIDIA機架設計方案,並且與Rubin GPU共同運算,等於是在NVIDIA的龐大加速運算體系內,爲「超低延遲推論」這個細分市場提供更好解決方案,不僅能吸引對延遲極度敏感的金融交易或即時AI代理應用,更向市場展示NVIDIA生態的開放性與包容性。
然而,這場盛宴的背後也存在隱憂。如此高度整合的「系統級解決方案」,將不可避免地帶來更高的採購單價與供應商鎖定效應。客戶過去可以自由搭配不同品牌的CPU、GPU和網路設備,但在Vera Rubin的世界裡,若要獲得最佳效能,意味必須全套採用NVIDIA的設計方案。雖然這對NVIDIA的營收和利潤帶來巨大成長推力,但也可能引發部分大型雲端業者如AWS、Google更進一步加速自研晶片的步伐,以求在未來掌握更多市場議價權與技術自主性。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》