「輝達二把手」喊建構最強 AI 系統 為未來千兆瓦 AI 工廠提供支援
有「輝達二把手」之譽的輝達超大規模和高效能運算副總裁巴克(Ian Buck)表示,AI和推理的複雜度爆炸式增長,輝達已與逾20傢伙伴合作,2027下半年將推出整合576個GPU的Rubin Ultra架構,支援新一代800VDC基礎設施。路透
有「輝達二把手」之譽的輝達超大規模和高效能運算副總裁巴克(Ian Buck)表示,AI和推理的複雜度爆炸式增長,輝達已與逾20傢伙伴合作,2027下半年將推出整合576個GPU的Rubin Ultra架構,支援新一代800VDC基礎設施,並與OCP夥伴建構開放式生態圈,將構成世界上最強大的AI系統,爲未來千兆瓦AI工廠提供支援。
2025年開放運算計劃(OCP)全球高峰會於美國時間13日開幕,巴克以「塑造人工智慧開放基礎設施的未來」(Shaping the Future of Open Infrastucture for AI)爲題發表演說,勾勒輝達下一個十年佈局新藍圖。
業界人士指出,巴克有「CUDA之父」的響亮稱號,在輝達重要性僅次於執行長黃仁勳,更是內部盛傳接班候選人之一,有「輝達二把手」之譽,這次他代表輝達出席OCP峰會,凸顯其地位。至於輝達另一接班熱門人選是全球業務運營執行副總裁普里(Jay Puri)。
巴克表示,當前AI進入千兆瓦級時代,愈來愈多的千兆瓦AI正建設中,資料中心效能將更強大且更智能,價值提升但成本降低。例如輝達僅以兩個月時間,就將B200資料中心的開放式AI模型GPT-OSS效能提升五倍,資料中心的符元(token)交付成本從每百萬符元11美分降至僅2美分。他指出,一個配備NVL72架構的GB200資料中心,其效能和符元交付量,比同等配置H200資料中心高出15倍。這種效能實際上直接轉化爲資料中心的收入,與它生產出產品的性能相比,基礎設施的成本微不足道。
輝達執行長黃仁勳先前已公開表態,採用輝達AI伺服器產品「買愈多,省愈多」,輝達產品能夠產生更高的AI投資報酬率。例如投資一個300萬美元的GB200 NVL72伺服器機架,可透過AI推論(AI token inference)產生高達3,000萬美元的營收,AI投資報酬率高達十倍,遠高於其他對手能產生的營收。
巴克演講呼應黃仁勳的「AI投報率」觀點,他也表示,輝達是硬體OCP標準的領先貢獻者,OCP的重要性是推進和提升性能、更高的密度、更智能、更高效的電力傳輸、縱向和橫向擴展接口技術,構建能大幅降低成本、提升性能,可以更加智能化,並提升績效的數據中心。他強調OCP的重要,並呼籲要共同建立資料中心技術和資料中心規劃路線圖,以打造最佳的AI與認證技術。