英偉達Q2業績會實錄:GB300量產+Rubin全速推進,中國市場今年機遇規模達500億美元

來源:市場資訊

財聯社8月28日訊(編輯 劉蕊)美東時間週三盤後,英偉達召開2026財年第二季度財務業績電話會議。財報顯示,公司本季度總營收達467億美元,超此前預期,所有市場平臺營收均實現環比增長。

在財報電話會上,華爾街分析師們就英偉達在中國市場的機遇展開詢問。其他問題則聚焦於Blackwell平臺的性能優勢,以及公司應對潛在ASIC競爭的策略。

英偉達首席執行官黃仁勳(Jensen Huang)強調了公司在人工智能基礎設施領域的領先地位。他表示,AI 驅動的新工業革命已開啓,Blackwell 作爲下一代AI平臺表現亮眼,GB300進入全速量產階段,同時Rubin平臺按計劃推進。長期看好全球3萬億至4萬億美元AI基礎設施市場機遇,將持續以全棧式解決方案鞏固行業領先地位。

他還着重指出了人工智能所帶來的變革性影響,並評論道:“一場新的工業革命已經開啓,人工智能競賽已然打響。”

完整文字實錄 —— 英偉達公司(NVDA)2026 財年第二季度會議

會議主持人薩拉(Sarah):下午好。我是薩拉,今天由我擔任本次會議的主持人。此刻,歡迎各位參加英偉達2026財年第二季度財務業績電話會議。爲避免背景噪音干擾,所有線路已設置爲靜音狀態。在發言嘉賓陳述完畢後,將進入問答環節。

英偉達主持人/投資者關係部託希亞・哈里(Toshiya Hari):謝謝。各位下午好,歡迎參加英偉達2026財年(相關會議)的電話會議。今天與我一同出席會議的英偉達高管包括:公司總裁兼首席執行官黃仁勳(Jensen Huang),以及執行副總裁兼首席財務官科萊特・克雷斯(Colette Kress)。在此提醒大家,本次會議正在英偉達投資者關係官網進行同步網絡直播。直播回放將持續開放,直至我們召開討論2026財年財務業績的後續會議。

本次會議內容的知識產權歸英偉達所有,未經我方事先書面許可,不得擅自複製或轉錄。在本次會議過程中,我們可能會基於當前預期發表前瞻性陳述。此類陳述受多項重大風險與不確定性因素影響,實際業績可能與前瞻性陳述存在重大差異。有關可能影響我們未來財務業績及業務運營的相關因素探討,請參考今日發佈的財務業績公告、我們最新的10-K 和10-Q表格,以及我們可能向美國證券交易委員會(Securities and Exchange Commission)提交的 8-K 表格。

我們所有陳述均基於今日(2025年8月27日)及目前可獲取的信息作出。除法律要求外,我們不承擔更新任何此類陳述的義務。在本次會議中,我們將討論非公認會計原則(non-GAAP)財務指標。有關非公認會計原則財務指標與公認會計原則(GAAP)財務指標的調節表,可在我們發佈於官網的首席財務官評論中查閱。接下來,我將會議主持權交給科萊特(Colette)。

英偉達執行副總裁兼首席財務官科萊特・克雷斯(Colette Kress):謝謝你,託希亞。儘管仍需應對持續變化的外部環境,我們依舊交出了又一個創紀錄的季度業績。總營收達 467 億美元,超出我們此前的預期 —— 所有市場平臺的營收均實現環比增長。數據中心業務營收同比增長 56%;即便H20營收減少40億美元,數據中心業務營收仍實現環比增長。

英偉達Blackwell平臺營收創下紀錄,環比增長17%。我們已於第二季度啓動GB300的量產交付。我們爲雲服務提供商、新興雲廠商、企業及主權實體打造的全棧式 AI 解決方案,均爲營收增長作出了貢獻。我們正處於一場將改變所有行業的工業革命開端,預計到本十年末,全球 AI 基礎設施支出規模將達到3萬億至4萬億美元。

這類基礎設施建設的規模與範圍,爲英偉達帶來了重大的長期增長機遇。GB200 NBL系統獲得廣泛採用,已在雲服務提供商(CSPs)和消費互聯網企業部署;包括OpenAI、Meta、Mastral在內的 “燈塔級” 模型研發機構,正以數據中心規模使用GB200 NBL 7,既用於下一代AI模型的訓練,也用於生產環境中的推理模型部署。全新的Blackwell Ultra 平臺本季度表現同樣強勁,營收達數十億美元。

得益於 GB300 與 GB200 在架構、軟件及物理規格上的共享設計,主流雲服務提供商向 GB300 的過渡過程十分順暢,可輕鬆搭建並部署 GB300 機架;此次向 GB300 機架式架構的升級實現了無縫銜接。7 月末至 8 月初,我們已順利完成工廠生產線改造,以支持 GB300 的產能提升;目前,GB300 已全面進入量產階段,當前產能已恢復至全速水平,每週約生產 1000 個機架。隨着新增產能逐步投產,預計第三季度產能將進一步提升。今年下半年,GB300 有望實現廣泛的市場供應 —— 雲服務提供商 CoreWeave 正準備將其 GV300 實例推向市場,該實例在推理模型上的性能已達到 H100的 10 倍。

相較於上一代 Hopper 平臺(前代 AI 計算平臺),GV300 與 DL72 AI 工廠在 “每瓦令牌數” 能效上實現了 10 倍提升 —— 這一優勢將直接轉化爲營收,因爲數據中心的算力部署往往受電力容量限制。Rubin 平臺(下一代 AI 計算平臺)的各類芯片已進入晶圓製造階段,包括 Vera CPU(中央處理器)、Rubin GPU(圖形處理器)、CX9 Super NIC(超級網卡)、NVLink 144 橫向擴展交換機、Spectrum X 橫向與跨域擴展交換機,以及硅光子處理器。Rubin 平臺的量產計劃仍按原時間表推進,將於明年實現批量生產;該平臺將成爲我們的第三代 NVLink 機架式 AI 超級計算機,配套供應鏈已成熟且具備規模化能力。

這一進展使我們能夠保持 “每年一款新產品” 的迭代節奏,並在計算、網絡、系統及軟件領域持續創新。

在競爭激烈的市場中,我們希望贏得每一位開發者的支持。若美國能積極參與全球競爭,其 AI 技術體系完全有潛力成爲全球標準。本季度值得關注的亮點是,Hopper 平臺(前代 AI 計算平臺)及 H200(產品型號)的出貨量實現增長。此外,第二季度我們還向中國境外不受限的客戶銷售了約 6.5 億美元的 H20 產品。Hopper 平臺需求的環比增長,既體現出加速計算所支撐的數據中心工作負載覆蓋範圍之廣,也彰顯了 CUDA 庫(英偉達核心計算庫)與全棧式優化技術的強大實力 —— 這些技術正持續提升平臺的性能表現與經濟價值。

目前我們仍在同時交付 Hopper 與 Blackwell 系列 GPU,重點聚焦於滿足全球激增的市場需求。雲廠商與企業的資本支出是推動這一增長的核心動力:僅今年一年,全球在數據中心基礎設施與計算領域的投資規模預計就將達到 6000 億美元,這一數字在兩年內幾乎實現翻倍。我們預計,受多重因素驅動,AI 基礎設施的年度投資將持續增長,這些因素包括:推理型智能體 AI(reasoning agentic AI)對訓練與推理算力提出數量級提升的需求、全球各國主權 AI 基礎設施建設、企業對 AI 技術的廣泛採用,以及物理 AI 與機器人技術的興起。Blackwell 平臺已樹立行業標杆,成爲 AI 推理性能的全新標準。隨着推理型與智能體 AI 在各行業的應用逐步落地,AI 推理市場正快速擴張。

Blackwell 平臺的機架式 NVLink(高速互聯技術)與 CUDA 全棧架構通過重新定義推理經濟性,成功應對了市場需求變化。GB300 平臺(產品型號)搭載的全新 NV FP4 4 位精度技術與 NVLink 72 技術,相較 Hopper 平臺實現了每令牌能效 50 倍的提升,助力企業以前所未有的規模實現算力商業化變現。例如,對 GV200(產品型號)基礎設施投入 300 萬美元,可產生 3000 萬美元的令牌營收,投資回報率達 10 倍。自 Blackwell 平臺發佈以來,英偉達的軟件創新成果結合開發者生態系統的強大支撐,已使其性能提升超過 2 倍。CUDA、TensorRT LLM(大語言模型推理優化工具)與 Dynamo(動態編譯工具)等技術的持續升級,正不斷釋放平臺的最大效率。

開源社區爲 CUDA 庫貢獻的技術成果,與英偉達的開源庫及框架已深度集成到數百萬個工作流中。這種英偉達與全球社區協作創新的強大良性循環,進一步鞏固了英偉達在性能領域的領先地位。英偉達是 OpenAI 模型、數據與軟件領域的主要貢獻者之一。Blackwell 平臺採用了突破性的數值計算方法用於大語言模型預訓練:藉助 NV FP4 技術,GB300 平臺的計算速度相較採用 FP8 技術的 H100提升 7 倍,同時兼具 16 位精度的準確性與 4 位精度的速度及效率優勢,爲 AI 算力效率與擴展性樹立了全新標準。

AI 行業正迅速採用這一革命性技術,包括 AWS(亞馬遜雲科技)、Google Cloud(谷歌雲)、Microsoft Azure(微軟 Azure)、OpenAI 在內的行業領軍企業,以及 Cohere、Mistral、Kimi AI、Perplexity、Reflection、Runway 等機構均已開始應用。在最新的 MLPerf 訓練基準測試中,GB200 平臺包攬所有項目冠軍,進一步驗證了英偉達的性能領先地位。敬請關注將於 9 月發佈的 MLPerf 推理測試結果,其中將包含基於 Blackwell Ultra 平臺的基準數據。目前,面向全球系統製造商的英偉達 RTX Pro 服務器已全面量產,這類空冷式 PCIe 架構服務器可無縫集成到標準 IT 環境中,既能運行傳統企業 IT 應用,也可支持最先進的智能體 AI 與物理 AI 應用。

已有近 90 家企業(包括多家全球龍頭企業)採用 RTX Pro 服務器:日立(Hitachi)將其用於實時仿真與數字孿生技術研發,禮來(Lilly)用於藥物研發,現代(Hyundai)用於工廠設計與自動駕駛驗證,迪士尼則用於沉浸式敘事內容創作。隨着企業加速數據中心現代化升級,RTX Pro 服務器有望成爲營收達數十億美元的產品線。

主權 AI 正處於快速發展階段:各國憑藉本土基礎設施、數據與人才自主研發 AI 的能力,爲英偉達創造了重大機遇。英偉達在英國與歐洲的多項標誌性項目中均處於核心地位。歐盟計劃投資 200 億歐元,在法國、德國、意大利與西班牙建立 20 個 AI 工廠,其中包括 5 個超級工廠,目標是將其 AI 計算基礎設施規模提升 10 倍。在英國,搭載英偉達技術的 Umbard AI 超級計算機已正式亮相,作爲該國性能最強的 AI 系統,其 AI 算力達 21 艾字節浮點運算(exaflops),將加速藥物研發、氣候建模等領域的突破性進展。預計今年我們在主權 AI 領域的營收將超過 20 億美元,較去年增長逾一倍。

網絡業務營收創下 73 億美元的紀錄。AI 計算集羣需求的不斷攀升,對網絡的高效性與低延遲提出了更高要求。在 Spectrum X 以太網、InfiniBand(高性能互聯技術)與 NVLink 等產品需求強勁的推動下,網絡業務營收環比增長 46%,同比增長 98%。我們的 Spectrum X 增強型以太網解決方案,爲以太網 AI 工作負載提供了最高吞吐量與最低延遲的網絡支持。Spectrum X 以太網業務營收環比與同比均實現兩位數增長,年化營收超 100 億美元。在 Hotchips(半導體行業會議)上,我們發佈了 Spectrum XGS 以太網技術,該技術可將多個分散的數據中心整合爲千兆級 AI 超級工廠。CoreWeave(雲服務提供商)是該解決方案的首批採用者,預計其 GPU 間通信速度將實現翻倍。

在 XDR 技術(新一代互聯技術)廣泛應用的推動下,InfiniBand 業務營收環比增長近一倍。相較於前代技術,XDR 技術的帶寬提升一倍,對模型研發機構而言尤其具有價值。作爲全球速度最快的交換機,NVLink 的帶寬是 PCIe 5 代的 14 倍,隨着客戶部署 Blackwell NVLink 機架式系統,其業務實現強勁增長。NVLink Fusion 技術(可支持半定製化 AI 基礎設施)獲得市場廣泛認可:日本即將推出的 Fugaku Next 超級計算機,將通過 NVLink Fusion 技術把富士通(Fujitsu)的 CPU 與我們的架構整合,可運行 AI、超級計算、量子計算等多種工作負載。目前,已有越來越多頂尖量子超級計算與研究中心採用英偉達 CUDA Q 量子計算平臺,Fugaku Next 便是其中之一,其他還包括 ULEC、AIST、NNF、NERSC 等機構;該平臺得到 300 多家生態合作伙伴的支持,包括 AWS、Google Quantum AI、Quantinuum、QEra、SciQuantum 等。

此外,我們全新的機器人計算平臺 THOR 現已正式上市。相較英偉達 AGX Orin(前代機器人計算平臺),THOR 的 AI 性能與能效均實現數量級提升,可在邊緣設備實時運行最新的生成式 AI 與推理型 AI 模型,爲頂尖機器人技術提供支持。英偉達機器人全棧平臺的採用率正快速增長:目前已有超 200 萬名開發者,以及 1000 多家軟硬件應用與傳感器合作伙伴基於我們的平臺開展業務並推向市場。

各行業的領軍企業均已採用 THOR,包括敏捷機器人(Agility Robotics)、亞馬遜機器人(Amazon Robotics)、波士頓動力(Boston Dynamics)、卡特彼勒(Caterpillar)、Figure(人形機器人公司)、海克斯康(Hexagon)、美敦力(Medtronic)以及元宇宙平臺公司(Meta)。機器人應用對設備端及基礎設施端的算力需求呈指數級增長,這將成爲我們數據中心平臺長期需求的重要驅動因素。

英偉達 Omniverse(數字孿生平臺)搭配 Cosmos(配套技術),是我們專爲機器人及機器人系統研發打造的數據中心級物理 AI 數字孿生平臺。本季度,我們宣佈與西門子大幅拓展合作伙伴關係,以助力打造 AI 自動化工廠;包括敏捷機器人(Agile Robots)、神經機器人(Neurorobotics)、優傲機器人(Universal Robots)在內的歐洲領先機器人企業,正基於 Omniverse 平臺開發最新創新產品。

接下來快速概述各地區營收情況:中國市場在數據中心營收中的佔比環比下降至低個位數(注:我們的第三季度業績展望未包含向中國客戶交付H20產品的相關營收)。新加坡地區營收佔第二季度開票營收的 22%,這是因爲部分客戶將開票業務集中在了新加坡;而新加坡地區數據中心計算業務開票營收中,超 99% 來自美國本土客戶。

遊戲業務營收創下 43 億美元的紀錄,環比增長 14%,同比激增 49%。這一增長得益於 Blackwell 系列 GeForce GPU的產能提升 —— 隨着供應量增加,該系列產品銷量持續強勁。本季度,我們推出了 GeForce RTX 5060 桌面級 GPU,爲全球數百萬玩家帶來雙倍性能提升,同時支持先進的光線追蹤、神經渲染技術,以及 AI 驅動的 DLSS 4(深度學習超級採樣 4)遊戲畫質增強技術。

Blackwell 技術將於 9 月登陸 GeForce NOW(雲遊戲服務),這是 GeForce NOW 迄今爲止最重要的一次升級:將提供 RTX 5080 級別的性能,實現極低延遲,並支持 5K 分辨率下 120 幀 / 秒的畫質輸出。此外,我們還將把 GeForce NOW 的遊戲庫規模擴大一倍,使其包含超 4500 款遊戲,成爲全球遊戲數量最多的雲遊戲服務平臺。

對於 AI 愛好者而言,端側 AI 在 RTX 系列 GPU 上的運行效果最佳。我們與 OpenAI 合作,對其開源 GPT 模型進行優化,使其能在數百萬臺支持 RTX 技術的 Windows 設備上實現高質量、高速且高效的推理。藉助 RTX 平臺體系,Windows 開發者可開發面向全球最大規模 AI PC 用戶羣體的 AI 應用。

專業可視化業務營收達 6.01 億美元,同比增長 32%。增長動力來自高端 RTX 工作站 GPU 的廣泛採用,以及設計、仿真、原型製作等 AI 驅動型工作負載的需求提升。核心客戶正藉助我們的解決方案提升運營效率:動視暴雪採用 RTX 工作站優化創意工作流,而機器人創新企業 Figure AI 則通過 RTX 嵌入式 GPU 爲其人形機器人提供算力支持。

汽車業務營收(僅包含車載計算業務營收)達 5.86 億美元,同比增長 69%,增長主要由自動駕駛解決方案驅動。我們已開始交付 NVIDIA Thor SoC(系統級芯片),該產品是 Orin(前代車載計算芯片)的繼任者。Thor 的推出恰逢行業加速向視覺、語言、模型架構、生成式 AI 以及更高階自動駕駛技術轉型的關鍵節點,它是我們迄今爲止研發的最成功的機器人與自動駕駛計算產品。

Thor 將爲我們的全棧式自動駕駛軟件平臺提供算力支持,該平臺目前已進入量產階段 —— 這不僅爲英偉達開闢了數十億美元的新營收機遇,也將提升車輛的安全性與自動駕駛水平。

現在簡要介紹利潤表其他項目情況:公認會計原則(GAAP)毛利率爲 72.4%,非公認會計原則(non-GAAP)毛利率爲 72.7%。上述數據包含一筆 1.8 億美元(或 40 個基點)的收益,該收益來自此前爲 H20 產品庫存計提的準備金釋放。若剔除這一收益,非公認會計原則毛利率仍達 72.3%,依舊超出我們此前的預期。GAAP 運營費用環比增長 8%,非公認會計原則運營費用環比增長 6%,費用增長主要源於計算與基礎設施成本上升,以及薪酬福利支出增加。

爲支持 Blackwell 平臺與 Blackwell Ultra 平臺(均爲新一代 AI 計算平臺)的產能提升,第二季度庫存從 110 億美元環比增至 150 億美元。儘管我們優先爲業務增長及戰略舉措提供資金支持,但在第二季度,我們仍通過股票回購與現金分紅向股東返還了 100 億美元。董事會近期批准了一項 600 億美元的股票回購授權,該授權將與第二季度末剩餘的 147 億美元回購授權合併生效。接下來,由我介紹第三季度的業績展望。

第三季度總營收預計爲 540 億美元,誤差幅度 ±2%,這意味着環比增長將超 70 億美元。需再次說明的是,我們的業績展望未包含任何向中國客戶交付 H20 產品(產品型號)的相關營收。公認會計原則(GAAP)毛利率與非公認會計原則(non-GAAP)毛利率預計分別爲 73.3% 與 73.5%,誤差幅度均爲 ±50 個基點。我們仍預計,年末非公認會計原則毛利率將達到 75% 左右(注:“mid seventies” 指 75% 上下的區間)。

GAAP 運營費用與非公認會計原則運營費用預計分別約爲 59 億美元與 42 億美元。全年來看,運營費用同比增長率預計將達到35%以上(原文爲“high thirties range” ),高於我們此前預期的30%-35%區間(原文爲“mid thirties” )。我們正加快業務投資步伐,以把握未來巨大的增長機遇。若剔除非流通股與公開持股權益證券的損益影響,GAAP 其他收支與非公認會計原則其他收支預計均爲約 5 億美元的收益。若剔除任何偶發項目,GAAP 稅率與非公認會計原則稅率預計均爲16.5%,誤差幅度 ±1%。

更多財務數據詳見首席財務官(CFO)評論及官網發佈的其他信息。最後,我想向金融界人士重點介紹即將舉行的活動:9 月 8 日,我們將出席在舊金山舉辦的高盛科技大會;10 月,我們將啓動年度投資者日活動;10 月 27 日,GTC 數據中心大會將拉開帷幕,黃仁勳的主題演講定於 28 日舉行。

我們期待在這些活動中與各位會面。我們計劃於 11 月 19 日召開電話會議,討論 2026 財年(相關季度)的業績。現在會議進入提問環節,主持人,請開啓提問徵集。

會議主持人薩拉(Sarah):謝謝。第一個問題來自坎託・菲茨傑拉德公司(Cantor Fitzgerald)的 C・J・穆斯(C. J. Muse),您的線路已接通。

坎託・菲茨傑拉德公司分析師 C・J・穆斯(C.J. Muse):您好,下午好。感謝您接受我的提問。據悉,從晶圓投入到機架成品的交付週期爲 12 個月,您今天在會議中已確認 Rubin 平臺(下一代 AI 計算平臺)將按計劃在下半年提升產能。顯然,這類投資多爲多年期項目,還需依賴電力、冷卻等配套條件。我希望您能從宏觀視角出發,談談對2026年增長的展望;若能同時說明網絡業務與數據中心業務的增長規劃,將對我們極有幫助。謝謝。

英偉達總裁兼首席執行官黃仁勳(Jensen Huang):好的,感謝 C・J 的提問。從最核心層面來看,增長驅動力將源於推理型智能體 AI(reasoning agentic AI)的演進與落地。過去,聊天機器人的交互模式是 “單次觸發”—— 你給出一個指令,它生成一個答案;而現在的 AI 能夠自主開展研究、進行思考並制定方案,甚至會調用工具。這一過程被稱爲 “深度思考”,通常而言,AI 的 “思考時間” 越長,生成的答案質量越高。

相較於 “單次觸發” 模式,推理型智能體 AI 模型所需的算力可能達到 100 倍、1000 倍,若涉及更復雜的研究任務(如大量文獻閱讀與理解),算力需求甚至可能更高。因此,智能體 AI 的出現使得算力需求大幅增長,其效用也隨之顯著提升。得益於智能體 AI,AI “幻覺”(指 AI 生成虛假或錯誤信息的現象)問題的發生率大幅下降;如今,AI 不僅能調用工具,還能執行具體任務,這爲企業應用打開了全新空間。

藉助智能體 AI 與視覺語言模型,我們在物理 AI、機器人技術及自主系統領域也實現了突破性進展。過去一年,AI 技術取得了巨大進步,而智能體系統與推理系統的出現更是具有革命性意義。爲抓住這一機遇,我們研發了 Blackwell NVLink 72 系統 —— 一款機架式計算系統,這項研發工作已持續數年。

去年,我們完成了從 NVLink 8(節點級計算,每個節點即爲一臺計算機)到 NVLink 72(機架級計算,每個機架即爲一臺計算機)的技術躍遷。將 NVLink 72 拆解爲機架級系統的技術難度極高,但成果也十分顯著:憑藉 NVLink 72,我們實現了算力數量級的提升,進而大幅優化了能效與令牌生成的成本效益。

關於你提到的長期展望 —— 未來幾年(更具體地說,未來五年),我們將依託 Blackwell、Rubin 及後續平臺持續擴大規模,最終把握全球 3 萬億至 4 萬億美元的 AI 基礎設施市場機遇。過去幾年,僅四大雲服務提供商(CSPs)的資本支出就實現了翻倍,總額已達約 6000 億美元。由此可見,我們正處於 AI 基礎設施建設的起步階段,而 AI 技術的進步也切實推動其在各行業的落地應用,助力解決各類實際問題。

會議主持人薩拉(Sarah):下一個問題來自美國銀行證券的維韋克・阿里亞(Vivek Arya),您的線路已接通。

美國銀行證券分析師維韋克・阿里亞(Vivek Arya):感謝您接受提問。科萊特,我想先明確一下中國市場 20 億至 50 億美元營收的相關情況:要實現這一目標需要哪些條件?進入第四季度後,中國業務有望達到怎樣的穩定增長節奏?

另外,黃仁勳先生,關於競爭格局:您的多家大型客戶已啓動或計劃啓動專用集成電路(ASIC)項目。據悉,您的 ASIC 競爭對手之一博通表示,其 AI 業務明年有望實現55%至60%的增長。您認爲是否存在市場重心從英偉達 GPU 轉向 ASIC 的可能?從客戶反饋來看,他們如何平衡商用芯片(merchant silicon)與 ASIC 的使用比例?謝謝。

英偉達執行副總裁兼首席財務官科萊特・克雷斯(Colette Kress):感謝維韋克的提問**。當前情況仍存在不確定性,我們尚無法確定本季度 H20 的最終營收規模。但可以肯定的是,若市場需求進一步增加、銷售許可進一步獲批,我們仍可擴大H20的產能並增加交付量。

英偉達總裁兼首席執行官黃仁勳(Jensen Huang):英偉達的產品與 ASIC 存在本質區別,我們先從 ASIC 談起。目前確實有很多 ASIC 項目啓動,也涌現出不少相關初創企業,但最終能實現量產的產品寥寥無幾,核心原因在於 ASIC 研發難度極高。加速計算與通用計算不同:在通用計算中,你編寫軟件後只需將其編譯到處理器即可運行;而加速計算是一個 “全棧協同設計” 問題。

過去幾年,AI 工廠的複雜度大幅提升,因爲其需解決的問題規模呈指數級增長 —— 顯然,這是全球迄今爲止面臨的最複雜的計算機科學難題,因此整個技術棧的設計難度極大。AI 模型的迭代速度也異常迅猛:從基於自迴歸的生成模型,到基於擴散的生成模型,再到混合模型與多模態模型;各類模型層出不窮,有的是 Transformer 架構的衍生版本,有的則是 Transformer 架構的升級版本,數量之多令人卻步。

英偉達的優勢之一在於,我們的產品覆蓋所有云平臺,與所有計算機廠商均有合作;從雲數據中心到本地部署、從邊緣設備到機器人,我們均採用統一的編程模型。因此,全球所有框架支持英偉達產品是順理成章的事 —— 當你研發新的模型架構時,選擇在英偉達平臺上發佈無疑是最合理的決策。

我們的平臺具備三大優勢:一是能夠適配任意模型架構的演進需求;二是應用場景全覆蓋;三是能加速 AI 全流程 —— 從數據處理、模型預訓練,到基於強化學習的模型微調,再到最終的推理部署。因此,搭載英偉達平臺的數據中心不僅效用最高,使用壽命也遠長於其他平臺。

此外,我還想補充一點:如今的 AI 系統已成爲極其複雜的綜合性問題。人們往往只關注芯片本身 —— 比如大家常討論的 “某款 ASIC 芯片”,但要研發 Blackwell 與 Rubin 這樣的完整平臺,我們需要構建一整套技術體系:包括能連接高速內存的 CPU(智能體 AI 需要大容量 KB 緩存,因此內存需具備極高能效)、GPU、超級網卡(Super NIC)、橫向擴展交換機(即我們的 NVLink)、橫向擴展交換機(無論是量子計算場景的交換機,還是 Spectrum X 以太網交換機),以及最新推出的跨域擴展交換機(Spectrum XGS)—— 通過這類交換機,我們可搭建多吉瓦級算力互聯的 AI 超級工廠。我們本週已在 Hotchips(半導體行業會議)上發佈了 Spectrum XGS 技術。

由此可見,我們所做的每一項工作都具有極高的複雜度,且均需在超大規模層面實現。最後我再強調一點:我們的產品之所以能覆蓋所有云平臺,是有充分理由的 —— 不僅因爲我們的能效是所有計算平臺中最高的,更因爲在數據中心受電力限制的當下,能效直接決定了營收規模。

正如我此前所說,從諸多層面來看,“採購量越大,增長空間越大”。由於我們的 “每美元性能比”(perf per dollar)極具競爭力,客戶也能獲得極高的利潤率。因此,無論是從增長機遇還是毛利率潛力來看,英偉達架構都是最優選擇。

正是基於這些原因,全球所有云廠商、初創企業與計算機廠商均選擇英偉達 —— 我們爲 AI 工廠提供的是真正全面的全棧式解決方案。

會議主持人薩拉(Sarah):下一個問題來自梅利厄斯公司(Melius)的本・賴茨斯(Ben Reitzes),您的線路已接通。

梅利厄斯公司分析師本・賴茨斯(Ben Reitzes):黃仁勳先生,我想就您提到的 “本十年末全球數據中心基礎設施支出將達 3 萬億至 4 萬億美元” 這一預測向您提問。此前您曾提及一個約 10 億美元規模的數字,我記得那似乎僅針對 2028 年的計算領域支出。結合您以往的表述來看,3 萬億至 4 萬億美元的總支出規模,似乎意味着計算領域的支出可能會超過 20 億美元。我想確認這一理解是否正確,以及這是否是您對本十年末市場情況的判斷。

另外,我還想了解:您認爲英偉達在這一市場規模中能佔據多大份額?目前,英偉達在整個基礎設施計算領域的份額已經非常高,所以想聽聽您的看法。同時,要實現 3 萬億至 4 萬億美元的支出目標,您是否擔心存在某些瓶頸問題,比如電力供應方面的限制?非常感謝。

英偉達總裁兼首席執行官黃仁勳(Jensen Huang):好的,謝謝。如你所知,僅全球四大超大規模雲廠商(hyperscalers)的資本支出,就在兩年內實現了翻倍。隨着 AI 革命全面推進、AI 競賽正式打響,這類資本支出已增至每年 6000 億美元。從現在到本十年末還有五年時間,而這 6000 億美元還僅僅是四大超大規模雲廠商的支出規模。

除此之外,其他企業也在建設本地部署(on prem)的數據中心,全球各地的雲服務提供商也在持續投入建設。目前,美國的計算資源約佔全球總量的 60%。長期來看,人工智能的發展規模與增長速度理應與 GDP 相匹配,當然,AI 本身也將推動 GDP 加速增長。因此,英偉達在 AI 基礎設施領域的貢獻佔據着重要地位。

以一座 1 吉瓦(gigawatt)規模的 AI 工廠爲例,其建設成本通常在 500 億至 600 億美元之間(誤差幅度 ±10%),而英偉達在其中的貢獻佔比約爲 35%(誤差幅度 ±5%)—— 也就是說,在一座耗資 500 億至 600 億美元的 1 吉瓦數據中心中,英偉達相關產品與服務的價值佔比約爲 35%。

當然,需要說明的是,我們提供的並非僅僅是 GPU。大家都知道,英偉達以研發併發明GPU而聞名,但在過去十年間,我們已成功轉型爲一家 AI 基礎設施企業。僅打造一套 Rubin AI 超級計算機,就需要六種不同類型的芯片;若要將其擴展到 1 吉瓦規模,則需要數十萬個 GPU 計算節點以及大量機架設備。

因此,英偉達本質上已是一家 AI 基礎設施企業。我們希望能持續爲行業發展貢獻力量,讓 AI 的應用價值更加廣泛;同時,提高 “每瓦性能比”(performance per watt)也至關重要 —— 正如你所提及的,未來全球 AI 基礎設施建設或 AI 工廠建設,很可能始終面臨電力供應的限制。所以,我們需要儘可能挖掘 AI 工廠的能效潛力。

英偉達產品的單位能耗性能,直接決定了 AI 工廠的營收增長 —— 兩者存在直接關聯。以一座 100 兆瓦(megawatt)的工廠爲例,其 100 兆瓦電力對應的性能水平,決定了工廠的營收規模,本質上就是 “工廠每 100 兆瓦電力產出的令牌數量”。此外,我們產品的 “每美元性能比”也極具競爭力,這使得客戶能獲得極高的毛利率。

不過無論如何,這些(電力、成本等)都是未來行業發展需要應對的限制因素。總體而言,未來五年全球 AI 基礎設施支出達到 3 萬億至 4 萬億美元的規模,是一個相當合理的預測。

會議主持人薩拉(Sarah):下一個問題來自摩根士丹利(Morgan Stanley)的喬・摩爾(Joe Moore),您的線路已接通。

摩根士丹利分析師喬・摩爾(Joe Moore):您好,感謝您接受提問。首先恭喜貴公司重新打開中國市場機遇。我想了解中國市場的長期前景:您此前似乎提到,全球約半數 AI 軟件相關業務集中在中國。那麼,英偉達在中國業務的增長空間有多大?另外,最終推動 Blackwell 架構獲得對華出口許可,對英偉達而言有多重要?

英偉達總裁兼首席執行官黃仁勳(Jensen Huang):**據我估算,今年中國市場爲我們帶來的機遇規模約爲 500 億美元。若我們能憑藉具備競爭力的產品充分把握這一機遇,且鑑於全球 AI 市場整體均在增長,預計中國市場規模每年有望實現50%左右的增長。**中國是全球第二大計算市場,同時也是 AI 研究人員的聚集地 —— 全球約50%的AI 研究人員來自中國,絕大多數領先的開源模型也誕生於中國。因此,我認爲美國科技企業能否進入這一市場,具有十分重要的意義。

衆所周知,開源技術雖誕生於某一個國家,卻能服務於全球。中國涌現的開源模型質量極高:例如 DeepSeek已獲得全球關注,Q1、Kimi、豆包等模型的表現也十分出色;此外,還有大量全新的多模態模型、優秀的語言模型不斷推出。這些開源模型極大地推動了全球企業對 AI 的採用 —— 因爲企業希望構建屬於自己的定製化專有軟件棧,而開源模型對企業而言至關重要;對於同樣希望搭建專有系統的 SaaS(軟件即服務)企業,開源模型也具有重要價值,同時它還爲全球機器人技術的發展提供了強大助力。

由此可見,開源技術意義重大,而美國企業能否參與其中也同樣關鍵。中國市場的規模未來將十分龐大,我們正與美國政府相關部門溝通,強調美國企業進入中國市場的重要性。如你所知,針對未被列入實體清單的企業,H20的對華銷售許可已獲批,且已有多家企業獲得了相關許可。因此,我認爲英偉達將 Blackwell 架構引入中國市場的可能性是切實存在的。接下來,我們會繼續倡導這一舉措的合理性與重要性 —— 畢竟,這有助於美國科技企業在 AI 競賽中保持領先、贏得競爭,並推動美國技術體系成爲全球標準。

會議主持人薩拉(Sarah):下一個問題來自富國銀行(Wells Fargo)的艾倫・雷克斯(Aaron Rakers),您的線路已接通。

富國銀行分析師艾倫・雷克斯(Aaron Rakers):您好,感謝您接受提問。我想回顧一下本週發佈的 Spectrum XGS(英偉達新一代以太網技術)相關公告。目前以太網業務年化營收已突破 10 億美元,我想了解您認爲 Spectrum XGS 的市場機遇體現在哪些方面?我們是否可以將其理解爲 “數據中心互聯層” 解決方案?另外,在整個以太網產品組合中,您如何看待該技術的市場規模?謝謝。

英偉達總裁兼首席執行官黃仁勳(Jensen Huang):目前我們提供三類網絡技術,分別對應 “橫向擴展”“縱向擴展” 與 “跨域擴展” 三種場景:

第一類是 “縱向擴展” 技術,用於構建規模最大的虛擬 GPU(圖形處理器)與虛擬計算節點。NVLink(高速互聯技術)在這一領域具有革命性意義 —— 正是憑藉 NVLink 72,Blackwell 架構才能實現相較於 Hopper 架構 NVLink 8 的跨越式性能提升。當前,AI 模型正朝着 “深度思考”(long thinking)、智能體推理系統(agentic AI reasoning systems)方向發展,而 NVLink 技術能顯著提升內存帶寬,這對推理系統而言至關重要,因此 NVLink 72 的價值極爲突出。

第二類是 “橫向擴展” 技術,我們提供兩種解決方案:一是 InfiniBand(高性能互聯技術),它無疑是延遲最低、抖動最小、橫向擴展能力最強的網絡技術,但對網絡管理專業能力要求較高。對於超級計算場景及頂尖模型研發機構而言,量子 InfiniBand 是無可爭議的首選 —— 若對 AI 工廠進行性能基準測試,採用 InfiniBand 的工廠將展現出最佳性能;二是針對 “數據中心已採用以太網架構” 的客戶,我們推出了全新的 Spectrum 以太網技術。該技術並非通用型產品,而是集成了多項專爲低延遲、低抖動及擁塞控制設計的新技術,其性能能無限接近 InfiniBand,遠超市場上其他以太網解決方案,我們將其命名爲 Spectrum X 以太網。

第三類是 “跨域擴展” 技術,即 Spectrum XGS—— 這項千兆級技術可將多個數據中心、多個 AI 工廠連接成一個 “超級工廠”(巨型系統)。顯然,網絡技術在 AI 工廠中具有核心地位:選擇合適的網絡技術,能將 AI 工廠的吞吐量效率從 65% 提升至 85% 甚至 90%,這種性能飛躍幾乎能讓 “網絡成本的投入產生‘零成本’般的回報”。

實際上,選擇合適的網絡技術所帶來的回報將遠超預期 —— 正如我此前所說,一座 1 吉瓦規模的 AI 工廠建設成本可能高達 500 億美元,而若能將工廠效率提升十幾個百分點,就能產生價值 1020 億美元的實際收益。因此,網絡技術是 AI 工廠的關鍵組成部分,這也是英偉達在網絡領域投入大量資源的原因,同樣也是我們五年半前收購 Mellanox(邁絡思,網絡設備廠商)的核心考量。

正如我們此前提及的,Spectrum X 以太網業務目前已形成相當規模,而該業務推出至今僅一年半時間,堪稱 “爆款” 產品。未來,NVLink(縱向擴展)、Spectrum X 與 InfiniBand(橫向擴展)、Spectrum XGS(跨域擴展)這三類技術都將擁有廣闊前景。

會議主持人薩拉(Sarah):下一個問題來自伯恩斯坦研究公司(Bernstein Research)的史黛西・拉斯金(Stacy Raskin),您的線路已接通。

伯恩斯坦研究公司分析師史黛西・拉斯金(Stacy Raskin):您好,感謝您接受我的提問。我有一個更偏向具體業務的問題想請教科萊特(Colette)。從業績展望來看,貴公司下季度營收預計環比增長超 70 億美元,其中絕大部分增長預計來自數據中心業務。我想了解,這 70 億美元的增長應如何在 Blackwell 平臺、Hopper 平臺與網絡業務三者之間分配?

我的初步判斷是,本季度 Blackwell 平臺營收可能達到 270 億美元,較上季度的 230 億美元有所增長;而在 H20 產品(型號)貢獻後,Hopper 平臺營收仍能維持在 60 億至 70 億美元。請問 Hopper 平臺的強勁表現是否會持續?對於如何拆分這 70 億美元增長在上述三項業務中的佔比,您能否提供一些思路?

英偉達執行副總裁兼首席財務官科萊特・克雷斯(Colette Kress):史黛西,感謝你的提問。首先,關於第二季度到第三季度的增長構成,Blackwell 平臺仍將佔據數據中心業務增長的絕大部分。但需注意的是,這一增長不僅會帶動計算業務,也將推動網絡業務 —— 因爲我們銷售的大型系統中,均集成了黃仁勳先生剛纔提到的 NVLink(高速互聯技術)。

Hopper 平臺目前仍在持續出貨,包括 H100、H200 等產品(型號),不過這些產品均屬於 HCX 系統(英偉達數據中心計算系統)。總體而言,Blackwell 平臺仍將是數據中心業務的核心增長驅動力,這一趨勢會繼續保持。目前我們暫無關於季度末業績拆分的更多具體細節,但可以明確的是,Blackwell 平臺仍將是營收增長的主要貢獻者。

會議主持人薩拉(Sarah):下一個問題來自高盛(Goldman Sachs)的吉姆・施耐德(Jim Schneider),您的線路已接通。

英偉達主持人 / 投資者關係部託希亞・哈里(Toshiya Hari):下午好,感謝您接受提問。您此前已清晰闡述了推理型模型(reasoning model)的市場機遇,也較爲詳細地介紹了 Rubin 平臺(下一代 AI 計算平臺)的技術參數。不過,能否請您進一步說明對 Rubin 平臺後續產品迭代的看法?該平臺能爲客戶帶來哪些新增能力?

此外,從性能與功能提升的角度來看,相較於 Blackwell 平臺的升級幅度,Rubin 平臺的提升幅度會更大、更小,還是基本相當?謝謝。

英偉達總裁兼首席執行官黃仁勳(Jensen Huang):好的,謝謝提問。關於 Rubin 平臺,我們目前保持着每年一次的產品迭代週期。選擇這一週期的核心原因是,我們希望通過持續迭代幫助客戶降低成本、最大化營收。

當我們提升 “每瓦性能比”(即單位能耗的令牌生成量)時,本質上是在直接推動客戶的營收增長。對於推理型系統而言,Blackwell 平臺的 “每瓦性能比” 相較於 Hopper 平臺實現了數量級的提升。由於所有數據中心本質上都受電力容量限制,因此,採用 Blackwell 平臺的數據中心,無論是相較於我們過往的產品,還是當前市場上的其他解決方案,都能實現營收最大化。

此外,Blackwell 平臺的 “每美元性能比”(即單位資本投入的性能)也極具優勢,這能幫助客戶提升毛利率。只要我們能爲每一代產品注入創新理念,就能通過推出新架構,持續提升客戶的營收能力、AI 功能水平與毛利率。

因此,我們建議合作伙伴與客戶按年度節奏規劃數據中心建設。Rubin 平臺將包含多項創新,剛纔我稍作停頓,是因爲從現在到明年發佈前,我還有足夠時間向大家詳細介紹 Rubin 平臺的各項突破性進展 —— 目前它已儲備了諸多出色的技術理念,我很期待分享,但現在還不能透露更多,後續會在 GTC 大會(英偉達全球開發者大會)上詳細說明。

不過,在接下來的一年裡,我們將全力推進當前產品的產能提升,包括 Grace Blackwell 平臺、GB200(產品型號),以及最新的 Blackwell Ultra 平臺、B300(產品型號),並加速數據中心部署。顯然,今年已是創紀錄的一年,我預計明年也將是創紀錄的一年。

一方面,我們將持續提升 AI 性能,朝着人工超級智能(artificial superintelligence)的方向邁進;另一方面,我們也將不斷增強超大規模雲廠商(hyperscalers)的營收生成能力。

會議主持人薩拉(Sarah):最後一個問題來自瑞銀集團(UBS)的蒂莫西・阿庫裡(Timothy Arcuri),您的線路已接通。

瑞銀集團分析師蒂莫西・阿庫裡(Timothy Arcuri):非常感謝。黃仁勳先生,我想就您此前提及的一個數據向您提問 —— 您說 AI 市場的複合年增長率(CAGR)爲 50%。我想了解,您對明年市場情況的可預見性有多高?對於貴公司數據中心業務明年的營收增長而言,50% 的複合年增長率是否是一個合理的目標?我認爲貴公司的增長至少應與這一複合年增長率持平。

英偉達總裁兼首席執行官黃仁勳(Jensen Huang):嗯,我認爲看待這個問題的最佳方式是,我們已從大型客戶那裡獲得了關於明年的合理預測,這些預測規模相當可觀。此外,我們仍在不斷贏得新業務,市場上也持續涌現大量初創企業。別忘了,去年專注於 AI 原生業務的初創企業獲得的融資額就達 1000 億美元;而今年尚未結束,這一融資額已升至 1800 億美元。

若聚焦 “AI 原生” 領域 —— 那些已產生營收的頭部 AI 原生初創企業,去年營收總額爲 20 億美元,今年則達到 200 億美元。明年營收較今年再增長 10 倍,並非不可能。同時,開源模型的發展正吸引大型企業、SaaS(軟件即服務)公司、工業企業及機器人企業加入 AI 革命,這將成爲另一大增長來源。

無論是 AI 原生企業、企業級 SaaS 廠商、工業 AI 領域,還是初創企業,我們都能看到市場對 AI 的興趣與需求極爲旺盛。想必各位都有所耳聞,當前市場的熱門話題是 “所有產品都已售罄”——H100售罄,H200也售罄。大型雲服務提供商(CSPs)甚至開始從其他雲廠商那裡租賃算力,而 AI 原生初創企業更是在爭相獲取算力,以訓練其推理型模型。可見,當前市場需求確實非常強勁。

從長期展望來看,過去兩年,僅大型超大規模雲廠商(hyperscalers)的資本支出就實現了翻倍,目前每年資本支出規模約爲 6000 億美元。對我們而言,在這 6000 億美元的年資本支出中佔據可觀份額,並非不切實際。因此,我認爲在未來數年,乃至整個本十年期間,我們都將面臨增速迅猛、規模龐大的增長機遇。

最後我總結一下:Blackwell 平臺是全球期待已久的下一代 AI 平臺,它實現了跨時代的性能飛躍。英偉達的 NVLink 72 機架式計算技術具有革命性意義,其推出恰逢其時 —— 因爲推理型 AI 模型正推動訓練與推理性能需求實現數量級增長。Blackwell Ultra 平臺正全速提升產能,市場需求異常旺盛。

我們的下一代平臺 Rubin已進入晶圓製造階段,該平臺包含六款全新芯片,且所有芯片均已在臺積電(TSMC)完成流片(taped out)。Rubin 將成爲我們的第三代 NVLink 機架式 AI 超級計算機,預計其配套供應鏈將更爲成熟,且具備全面規模化能力。

在本十年末之前,隨着全球 AI 工廠建設規模達到 3 萬億至 4 萬億美元,Blackwell 與 Rubin 這兩大 AI 工廠平臺將持續擴大部署規模。客戶正在建設規模越來越大的 AI 工廠:從 “數十兆瓦數據中心搭載數千塊 Hopper 系列 GPU”,發展到 “100 兆瓦設施搭載數十萬塊 Blackwell 系列 GPU”;不久之後,我們還將看到 “數百萬塊 Rubin 系列 GPU 爲多吉瓦、多站點的 AI 超級工廠提供算力支持”。每一代平臺的推出,都只會進一步推動需求增長。

從 “單次交互聊天機器人”,到能夠自主研究、制定方案並調用工具的 “推理型智能體 AI”,技術演進推動訓練與推理算力需求實現了數量級躍升。如今,智能體 AI 已日趨成熟,併爲企業市場打開了新空間 —— 企業可圍繞業務流程、產品與服務,構建特定領域或企業專屬的 AI 智能體。

物理 AI 時代已然來臨,這爲機器人、工業自動化等領域開闢了全新市場。未來,每個行業、每家工業企業都需要建設兩類工廠:一類用於製造實體機器,另一類用於構建其機器人 AI 系統。本季度,英偉達不僅實現了營收破紀錄,也在發展歷程中達成了一個非凡的里程碑。

未來機遇巨大,一場新的工業革命已然開啓,AI 競賽已然打響。感謝各位今日參與會議,期待在下一次財報電話會議與大家再會。謝謝。

(本文由人工智能輔助完成)