NVIDIA豪砸1000億美元投資OpenAI 將打造10GW規模AI資料中心、推動次世代模型訓練

NVIDIA宣佈將投入高達1000億美元資金,協助OpenAI建置至少10GW規模的AI資料中心,並且全面採用NVIDIA GPU加速系統架構,而這項合作規模將爲OpenAI下一代大型語言模型提供算力支撐。

依照計劃,NVIDIA的投資將隨着每1GW容量上線逐步釋出,首批資料中心預計在2026年下半年投入運作,並且基於NVIDIA新一代Vera Rubin架構平臺建置。NVIDIA執行長黃仁勳表示,Vera Rubin架構平臺將比現有Blackwell晶片架構「再跨一個大臺階」,在效能與效率上有更顯著躍升。

黃仁勳在聲明中也回顧NVIDIA與OpenAI過去以來長達十年的合作歷程,從最初的DGX超級電腦到ChatGPT的誕生,雙方不斷互相推進技術邊界。OpenAI執行長Sam Altman則表示,算力基礎設施將成爲未來經濟的核心,透過NVIDIA的建設成果,OpenAI將能持續推動AI技術突破,並且大規模賦能企業與使用者。

這並非NVIDIA近期唯一的大手筆佈局,日前剛宣佈對Intel投資50億美元,緊接着美國政府入股Intel 10%股份之後進一步強化合作。此外,NVIDIA也斥資超過9億美元取得AI新創Enfabrica技術授權,並且網羅其核心團隊。

對OpenAI而言,這筆投資與先前合作案相互呼應,例如OpenAI與甲骨文達成協議,規劃建置4.5GW規模資料中心容量,使用超過200萬組甲骨文晶片,作爲「Stargate Project」的一部分。該專案由SoftBank、OpenAI、NVIDIA、甲骨文、Arm及微軟共同發起,目標在美國投入5000億美元建設AI基礎設施。

此舉不僅顯示NVIDIA與OpenAI在AI生態的深度綁定,也意味接下來的全球AI訓練市場將進入新一輪算力競賽。在10GW的AI資料中心完成建設之後,OpenAI將擁有前所未有的模型訓練規模,對Google DeepMind、Anthropic、xAI等競爭對手形成強大壓力。

《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》