黃仁勳CES記者會實錄:AI擴展沒有物理限制,只專注做好兩件事

CES開幕演講的第二天,英偉達創始人兼CEO黃仁勳接受了全球媒體的採訪,持續1小時的採訪中,黃仁勳回答了關於英偉達策略、全球投資、AI生態格局、AGI時刻、Agentic AI、自動駕駛、物理AI等26個問題。

在記者會的最後,黃仁勳在回答至頂科技關於AI時代的學習教育趨勢時表示,“未來,每個學生都必須學會使用AI,就像現在這一代學生都必須學會使用計算機一樣。”

黃仁勳強調,AI革命極其深遠。他以計算機圖形學舉例,“這個領域的摩爾定律曲線,原本實際在放緩,但AI的加入讓它獲得了超級動力,現在幀率達到200、300、400幀每秒,圖像完全是光線追蹤且非常漂亮”,所以,我們已經看到了計算機圖形學的指數增長曲線,實際上,所有領域都看到了類似的陡峭增勢。

有趣的是,這次出現在記者會上的黃仁勳,換了一件皮衣,之所以沒穿前一天在CES上的“閃亮亮”皮衣,他調侃說道“too much(有點過了)”。

以下是針對黃仁勳本次記者會採訪的完整聽譯(爲便於閱讀和可讀性,科技行者進行了文字和段落上的小幅修改):

【1】“英偉達只做兩件事”

問:去年英偉達重新定義了數據中心,現在又完成了系統層面的所有工作,特別是這次發佈了NVLink72,接下來是不是應該考慮基礎設施、電力和其他系統組件的問題了?

黃仁勳:英偉達有個宗旨,只做兩件事情——要麼是別人沒在做的事,要麼是我們能做得明顯更好的事。所以英偉達進入新業務的標準其實很高。比如,如果英偉達不造NVLink72,誰去造呢?如果英偉達不開發Spectrum X這樣的以太網交換機,誰能做呢?

雖然我們有32000人,仍然是相對較小的公司。作爲一家規模不大的公司,我們需要確保資源高度聚焦在能做出獨特貢獻的領域。

從早期的Hopper架構,到現在的Blackwell架構,功率密度在不斷提升。這是必然的發展趨勢,因爲更高的功率密度,意味着更好的性能。不管光子的速度有多快,我們還是傾向於讓計算機更緊湊,而且現在Blackwell在液冷方面都已經做的很好。

【2】談AI PC:“我們正在把雲端AI引入端側AI”

問:這次英偉達發佈了很多關於AI PC的消息,但現階段AI PC的採用率還沒有真正起飛,你認爲是什麼原因阻礙了它的發展?英偉達如何幫助改變這種局面?

黃仁勳:很好的問題。AI技術最初是在雲端環境下發展起來的,如果回顧英偉達過去幾年的增長軌跡,你會發現主要集中在雲計算領域,這是因爲訓練AI模型需要超級計算機。這些模型規模都很龐大,在雲端部署和通過API調用比較容易。

但我們認爲,仍然有很多設計師、軟件工程師、創意工作者和技術愛好者,他們更傾向於在PC上開發AI應用。其中一個挑戰在於,由於AI生態系統主要集中在雲端,大量的精力、發展動力和工程努力都投入在雲端,導致開發端側AI應用的人相對較少。

但其實Windows PC完全有能力支持AI開發,特別是通過WSL2(Windows Subsystem for Linux 2)。WSL2本質上是一個虛擬機,是一個運行在Windows內部的雙操作系統,它最初是爲雲原生應用創建的,支持Docker容器,而且支持CUDA。

我們正在努力確保PC上的WSL2能夠完美支持這些技術,從而把原本爲雲端打造的AI技術引入到PC端,就相當於把雲端能力帶到PC端。

我堅信這是未來的正確方向,我對此很興奮,所有的PC製造商也都表現出極大的興趣。我們正在與合作伙伴一起,讓所有PC都支持帶有WSL2的Windows系統,這樣就能把雲端AI的所有技術進展、工程成果、生態系統帶到個人電腦上。

【3】談投資、競爭與合作:“我們的緊迫感來自客戶的真實需求”

問:去年GTC大會上,你分享了英偉達在以色列增加投資的情況,加強了你們作爲該國最大僱主之一的地位。2024年你們繼續擴張,你們打算如何進一步增加在以色列的投資?具體來說,我們是否很快就會聽到一個正在進行中的新交易?另外,考慮到目前的局勢,你是否看到從那裡引進人才的機會?

黃仁勳:我們從世界各地吸引優秀人才,目前英偉達網站上收到了超過100萬份簡歷申請,而我們公司只有32000名員工。這表明大家對加入英偉達的興趣非常高,因爲我們做的工作很有趣。

在以色列,我們有很大的發展機會。最初我們收購邁絡思的時候,在那裡有2000名員工,現在我們在以色列的員工已達到近5000人。我們可能是以色列發展最快的企業僱主之一,我爲此感到非常自豪。

在過去一段時間裡,我們的以色列團隊創造了NVLink、Spectrum X、Bluefield 3等重要產品,我對團隊的專業水平和敬業精神感到非常自豪。

關於新的收購計劃,今天暫時沒有要宣佈的消息,但我們始終保持開放態度。如果你們知道一些必須要拿下的好項目,請第一時間告訴我,只告訴我(開玩笑)。

問:作爲一個遊戲玩家,我感到很興奮,因爲當你談到內存時,特別提到了HBM,爲什麼沒有選擇三星的?

黃仁勳:我認爲三星和SK不生產顯卡,對吧?(此時黃仁勳問向現場媒體)他們生產嗎?(得到肯定回覆後)好吧,抱歉,是我搞錯了,別告訴他們我說了這些。

關於HBM,他們正在努力,他們一定會成功的,這毫無疑問,我對此充滿信心。要知道,最早的HBM內存就是三星開發的,英偉達使用的第一塊HBM內存就來自三星,所以他們會重新崛起的,他們會強勢迴歸的。

追問:爲什麼他們花了這麼長時間?

黃仁勳:其實並不算太長。當然,韓國產業求變心切,這是好事。

但他們需要設計新方案,我相信他們一定能做到。而且他們進展很快,非常投入,我很有信心他們會成功。SK和三星都是優秀的公司,尤其在內存領域,所以我相信他們會繼續取得成功。你們昨天也看到了Blackwell中使用了多少HBM內存,HBM內存對我們的計算非常重要。

問:儘管超大規模客戶對英偉達產品的需求已經很明確,但我好奇的是,你們在擴大收入來源方面的緊迫感有多大?特別是在開拓企業客戶和政府客戶,幫助他們部署具有高性能AI計算能力的數據中心方面。尤其是在亞馬遜等公司正在研發自己的AI芯片時,你們感受到多大壓力?然後,能否詳細說說你們在企業和政府方面的進展嗎?

黃仁勳:我們的緊迫感來自於客戶的真實需求。我從不會因爲一些客戶也在開發芯片而擔憂,因爲大家做的是不同的事情。

我很高興看到客戶在雲端使用英偉達的技術,很高興他們用英偉達的技術來開發AI。我們的技術進步現在非常快,每年性能可以翻一番,就代表每年成本降低一半。這比摩爾定律最好時期的進步要快得多。所以,我們會積極響應客戶需求,用產品迴應他們。

關於企業級市場,現在主要有兩大行業服務:軟件服務商(比如ServiceNow、SAP等),以及幫助他們將軟件適配到業務流程中的解決方案集成商。英偉達的策略是與這兩個生態系統合作,幫助他們構建Agentic AI,而NIM、NeMo、AI Blueprints都是用於構建Agentic AI的工具包。

比如在軟件服務商方面,我們與ServiceNow團隊的合作就很成功,他們將因此推出一系列基於ServiceNow的AI代理服務,服務於員工和客戶。這就是我們的基本戰略。

在解決方案集成商方面,我們與埃森哲等公司合作。埃森哲在幫助客戶採用Agentic AI方面做得非常出色。

所以第一步是幫助整個生態系統開發AI,過去一年我們在構建Agentic AI工具包方面做得不錯,接下來就是部署的環節了。

問:很多公司都在開發Agentic AI,你們是如何與AWS、微軟、Salesforce這些同樣在爲客戶提供開發平臺的公司合作或競爭的?你們是如何與這些公司打交道的?

黃仁勳:英偉達不是一家直接服務企業的公司,而是一家技術平臺公司。我們在構建工具包、庫和AI模型,這些都是爲ServiceNow、SAP、Oracle、Synopsys、Cadence、西門子這樣的服務商提供的,但在計算層面、AI庫層面不是這些公司花精力投入的領域,所以英偉達可以爲他們創建。

這其實相當複雜,因爲我們實際在做的事情是在把類似ChatGPT的功能打包整合到容器中。優化這些端點和微服務是非常複雜的。不過一旦完成,客戶就可以在任何雲平臺上使用我們的產品,所以我們開發NIM、NeMo、AI Blueprints不是爲了與他們競爭,而是爲了服務他們。

事實上,已經有很多雲服務提供商用NeMo訓練他們的模型,他們的雲商店裡也有NeMo和NIM,我們對此感到很高興。我們創建了這整個技術層,理解NIM和NeMo的作用就像理解CUDA和CUDA X庫一樣重要。CUDA X庫對於英偉達平臺起到了關鍵作用,其中有用於線性代數的cuBLAS,用於深度神經網絡處理的cuDNN(這真正革新了深度學習),以及cuTLAS等所有這些我們談論的高級模型,我們爲行業創建這些庫,這樣他們就不必自己做了。

同理,我們開發NeMo和NIM也是爲了服務整個行業,這樣企業就不必自己從零開發了。

問:我來自中國臺灣。CES主題演講提到,Digits的CPU是與聯發科合作的,想請您談談更多與其他中國臺灣公司合作的情況。另外還想了解英偉達是否會在中國臺灣建設總部?

黃仁勳:我們在中國臺灣有很多員工,但現有的辦公地太小了,我需要找到解決方案,也許我之後會宣佈一些消息,我們正在物色地產。如果你知道好地方,請務必第一時間只告訴我一個人。

關於聯發科,我們在多個領域都有合作。比如自動駕駛汽車領域,雙方合作爲行業提供完全軟件定義的智能汽車解決方案。所以我們在汽車行業的合作非常非常順利。

此外,新的Grace GB10 CPU也是與聯發科合作開發的。我們共同設計架構,實現了芯片間的互聯以及CPU和GPU的內存一致性。

坦白說,聯發科在芯片設計和製造方面都做得很出色,第一次做出來的就很完美,性能優異。大家都知道聯發科在低功耗方面的優勢,確實名不虛傳。我們很高興能與這樣優秀的公司合作。

問:關於貿易限制,這個話題現在依然廣受關注,你對貿易限制可能影響到整個行業(包括英偉達)的盈利前景擔心嗎?

黃仁勳:我並不擔心。我相信政府會在貿易談判中做出正確的決定。無論最終結果如何,我們都會盡最大努力幫助客戶,推動市場向前發展。就像我們一直以來做的那樣。

【4】談AGI:“人在使用工具,機器終究是工具。”

問:我來自韓國,想問個哲學問題。最近Sam Altman發推文說我們已經接近AI“奇點”了,你這次也提到“通用機器人的ChatGPT時刻即將到來”,如果這是真的,機器人很快就會出現在我們身邊,也許有些機器人會比我們聰明,也許有些對我們來說很難理解。那麼你認爲,機器人會站在哪一邊?是與人類站在一起,還是對抗人類?

黃仁勳:會與人類站在一起,因爲我們就是這樣設計它們的。

AGI(超級智能)這個概念並不陌生。在我的公司裡,我的管理團隊、領導們和公司的科學家們都表現出超級智能,我已經被AGI包圍了,但我更願意被AGI包圍,而不是相反的情況,因爲這就是未來。

你會有超級智能來幫助你寫作、分析問題、做供應鏈規劃、編寫軟件、設計芯片、做數字營銷、做播客等等,而且它們隨時待命,爲你提供服務。

追問:所以你不認爲它們會有衝突?

黃仁勳:技術可以被用於多種用途。但要記住,是人在使用工具,機器終究是工具。

【5】談Cosmos:“一個能理解物理世界的基礎模型,會讓機器人成爲現實”

問:這次在CES演講的某些部分,感覺像是在聽技術研討會,內容很專業。但現在你們的受衆羣體更廣了,能否重新解釋一下這次發佈的AI進展的核心意義,讓那些完全不瞭解技術的普通觀衆也能理解。

黃仁勳:首先,我承認有這個問題,但這還是次要的。要知道,英偉達是一家技術公司,而不是消費品公司,我們的技術會影響和改變消費電子產品的未來。

雖然CES熱情邀請英偉達來分享,但我們始終是一家專注於技術的公司。當然,這並不能成爲我沒有把技術講解得更好的藉口。

我重新試着講解一下。

我們這次宣佈的一個最重要的突破,是開發了一個能夠理解物理世界的基礎模型Cosmos。就像GPT是理解語言的基礎模型,Stable Diffusion是理解圖像的基礎模型一樣,我們創造了一個理解物理世界的基礎模型。

它能理解摩擦力、慣性、重力、物體的存在和持續性,以及幾何和空間關係等概念——這些都是人類孩子們與生俱來就能理解的東西。我們認爲需要有這樣一個“理解物理世界”的基礎模型,它能以大語言模型目前無法做到的方式理解物理世界。

現在,通過Cosmos,所有你能用GPT和Stable Diffusion完成的任務,都可以用它來實現。比如,你可以跟這個世界模型對話,問它“現在看到了什麼?”它通過攝像頭獲取的畫面,可以描述“看到很多人坐在桌前,大家在一個房間裡”的現實場景。

爲什麼我們需要Cosmos?因爲如果你希望AI能夠在物理世界中合理地運作和互動,就必須讓AI理解物理世界。

自動駕駛汽車需要理解物理世界,機器人也需要理解物理世界,Cosmos是實現所有這些應用的起點。就像GPT催生了我們今天經歷的一切,就像Llama對當前所有的AI活動都很重要,就像Stable Diffusion觸發了所有這些生成式圖像和視頻模型一樣。

我們希望Cosmos也能達到同樣的效果,Cosmos會讓機器人成爲現實。

問:我想問這次發佈的模型,尤其是Cosmos,這些模型能在智能眼鏡上運行嗎?或者在開發這些模型時,你們有考慮過智能眼鏡嗎?因爲考慮到行業的發展方向,智能眼鏡似乎是未來很多人體驗AI代理的一個重要平臺。

黃仁勳:是的,我對智能眼鏡很感興趣,它能回答“我看到了什麼、如何到達目的地”,它可以幫助你閱讀,還有很多其他用途,使用場景非常廣闊。

對於Cosmos的使用方式,雲端的Cosmos可以提供視覺理解能力,如果你想在設備本地運行,那麼你可以使用Cosmos來提煉出一個小型模型。這樣,Cosmos就變成了一個知識遷移的AI工具,它將知識轉移到一個更小的AI模型中。

這種做法之所以可行,是因爲更小的AI模型雖然通用性較差,但在特定領域非常專業,這就是爲什麼可以進行定向的知識遷移。這也是爲什麼我們總是先構建基礎模型(大模型),然後通過知識蒸餾逐步構建更小的模型。

【6】談DLSS:“從最初沒人相信,現在大家終於意識到它確實是未來”

問:關於DLSS 4,你這次做了一些視頻展示,我想詳細瞭解一下,比如多幀生成技術,它是否仍然是渲染兩幀,然後在中間生成並進行插值?

另外,關於演示視頻裡提到的RTX Neural Material,這是遊戲開發者需要專門採用的技術嗎?還是它是驅動程序層面的功能,可以讓大部分PC遊戲受益?

黃仁勳:在Blackwell中,我們增加了着色器處理器能夠運行神經網絡,這樣就可以在着色器管線中混合使用代碼和神經網絡模型。這非常重要,因爲紋理和材質的處理,都是在着色器中處理的。

如果着色器能運行AI,那麼就能利用神經網絡帶來在算法上帶來的進步。比如壓縮技術,現在的紋理壓縮效果比我們過去30年使用的壓縮算法要好得多,壓縮比有了巨大提升。對於很多紋理可以額外壓縮5倍。現在遊戲體積都很大,所以這是個重要進步。

第二點關於材質。材質決定了光線在表面的傳播方式,它的各向異性特性,會讓光線以特定方式反射,讓我們能分辨這是金子、還是油漆、還是金箔。這種特性本質上是原子層面發生的,光線在材料的微觀結構上的反射、折射和散射造就了材質的特性。用數學方法很難描述這個過程,但我們可以用AI來學習它。所以我認爲,這種神經材質技術是一個重大突破,能爲計算機圖形帶來前所未有的生動感和逼真度。

這兩項技術都需要內容端的配合,所以開發者首先要開發內容,然後我們就可以輕鬆整合進去。

關於DLSS,幀生成不是插值關係,而是字面意義上真正的生成。我們是在預測未來,而不是在對過去進行插值,這樣做是爲了提高幀率。DLSS 4是一個徹底的突破,你們一定要去體驗。

問:AI在PC遊戲中是否扮演了更決定性的作用,你能想象傳統渲染的畫面幀,未來全部都變成AI生成的幀嗎?

黃仁勳:不是的,我來解釋一下原因。ChatGPT剛出來時,大家說“現在我們可以讓AI生成一整本書了”,但實際上內部人員都知道這並不現實,原因是AI生成內容需要獲得基準事實,這叫做條件控制(Conditioning)。

<編者注:條件控制就像是給AI一個清晰的“工作說明書”,讓它能夠按照我們的預期來完成任務。假設你是一個廚師,被要求做一道菜,就非常籠統,但如果有人告訴你“做一道中式炒麪,要偏甜口味,麪條要軟硬適中”,你就更清楚該怎麼做了。所以,如果沒有條件控制,AI就像無頭蒼蠅,生成的內容可能偏離預期。有條件控制時,給AI明確的方向和邊界,指定內容的風格、長度、深度,告訴它“要什麼”和“不要什麼”,更明確。)

就像我們現在,要用上下文來條件控制聊天或提示詞,在回答問題之前,它必須理解上下文,上下文可能是PDF文件、網頁搜索、或者提示詞。

遊戲也是同樣的道理,你必須提供上下文。而遊戲的上下文不僅有故事情節,還要考慮空間關係。進行條件控制的方式是提供初始的幾何形狀或紋理片段,然後基於這些,系統才能生成新內容或提升內容。

這種條件控制與ChatGPT使用上下文或企業中的“檢索增強生成(RAG)”是一樣的。未來的3D圖形生成將建立在以真實場景爲基礎的生成方式。

以DLSS 4爲例。在四幀畫面中有3300萬像素,我們只需要渲染其中的200萬像素,並讓AI預測並生成其餘的3100萬像素。

這200萬像素必須有精確的“條件控制”,通過“條件控制”,我們可以生成其他的幀。而且更重要的是,由於原本用在那3100萬像素的算力現在都集中在這200萬像素上,所以這200萬像素可以渲染得非常精美,爲其他像素的生成提供了基礎和參考。

這種變革將影響遊戲的方方面面,從像素渲染、到幾何渲染、到動畫渲染等。DLSS從第一次宣佈到現在,過去了六年時間,從最初的沒人相信(部分原因是我沒有解釋清楚),到現在大家終於意識到它確實是未來,關鍵是要有條件控制,要有藝術家的專業創意指導。

我們在Omniverse中就是這樣做的。我們將Omniverse和Cosmos結合,就是因爲Omniverse作爲Cosmos的3D引擎,本質上是一個生成引擎。我們可以精確控制渲染的程度,儘可能生成更多內容。當減少控制和模擬時,我們反而能模擬更大的世界。因爲在這背後,我們有一個強大的生成引擎,在創造一個精美的世界。

問:這次發佈的5090是個很棒的硬件,但要讓新硬件運行起來,需要面對Windows和DirectX的適配挑戰。你們需要做什麼來減少引擎適配的阻力?如果我想讓DirectX與你們的硬件配合得更好,需要注意什麼?

黃仁勳:多年來,每當DirectX的API需要擴展或革新時,微軟一直都非常願意配合。我們與DirectX團隊有着很好的合作關係。當我們在推進GPU技術時,如果API需要改變,他們都會很支持。

但對於DLSS來說,大多數情況下我們不需要改變API,實際上需要改變的是引擎本身,因爲這涉及到語義理解層面,它需要理解場景的整體,而不僅僅是繪製調用。

場景的更多信息存在於虛幻引擎、寒霜引擎或其他開發者的引擎中,這就是爲什麼DLSS現在已經集成到了很多個引擎裡的原因。特別是從DLSS 2/3/4開始,一旦完成集成,即使遊戲是爲DLSS 3開發的,當我們更新到DLSS 4時,它也能獲得DLSS 4的部分改進,以此類推。所以我們必須爲基於場景語義理解的AI處理搭建管道。AI處理是基於場景的語義信息,這真的必須在引擎層面實現。

【7】談Blackwell:“具有強大的通用性”

問:你認爲Blackwell到統一架構,在AI競爭中有什麼優勢?

黃仁勳:Blackwell GPU具有強大的通用性,能夠支持從Agentic AI到完整機器人系統的各類應用,無論是雲端服務器、自動駕駛汽車、機器人、還是遊戲系統,都能在Blackwell上運行。這是我們深思熟慮後做出的戰略決策。

這麼做的原因是,軟件開發者需要一個通用的開發平臺,開發者只需要開發一次,就能確保他們的程序可以在任何搭載英偉達芯片的平臺上運行。就像我這次在CES上說的,我們可以在雲端開發AI模型,然後輕鬆部署到個人PC上運行。還有誰能做到這一點?

這就表明,雲端的AI容器可以直接下載到PC上運行。比如SD-XL、Flux、Llama等模型都能完美適配,直接從雲端拖拽下來,在你的PC上就能立即使用,在遊戲等應用中也能得到廣泛應用。

問:看到這次發佈的5070的性能和4090差不多,價格還降了那麼多,很讓人興奮,那麼我們對即將上市的其他型號可以期待什麼?

黃仁勳:我們這次發佈了四張RTX Blackwell顯卡,其中性能最低的一款超過了當今世界上性能最強的GPU,真是令人難以置信。這充分體現了AI的驚人能力,如果沒有AI、沒有張量核心、以及圍繞DLSS4的所有創新,我們不可能達到這樣的性能水平。

至於其他型號,我現在沒什麼可以宣佈的。會有6060嗎?我不知道。不過6060確實是我最喜歡的數字之一。

問:這次英偉達發佈了DIGITS,你認爲非遊戲PC市場目前最沒有被滿足的需求是什麼?

黃仁勳:讓我先解釋一下DIGITS,它是一個深度學習GPU智能訓練系統,是一個面向數據科學家和機器學習工程師的平臺。現在,這羣人大多使用個人電腦、Mac或工作站來做這些工作,說實話,對大多數人的PC來說,做機器學習、數據科學、運行Pandas或PyTorch這些工作,都不是最優選擇。

所以我們現在有了DIGITS,它體積小巧,可以放在桌面,支持無線連接,使用起來就像在雲端操作一樣方便,就像是在運行你自己的私人AI雲。

爲什麼要開發這樣的設備?因爲對大多數開發者來說,需要頻繁使用計算資源,如果完全依賴雲服務,成本會很高。DIGITS正好填補了這個市場空白,現在有了這個設備,相當於擁有了一個私人開發雲,這對那些需要持續進行開發的數據科學家、學生和工程師來說非常有價值。

雖然AI起源於雲端,未來可能仍然以云爲主,但目前的計算設備已經跟不上AI發展的步伐。這就是爲什麼我們要開發新的解決方案。

問:我有一個關於遊戲玩家和消費者的問題。我們注意到RTX 5090和5080之間存在巨大差距。5090的CUDA核心數量是5080的兩倍多,價格也翻倍了。爲什麼要在旗艦和次旗艦產品之間做出如此大的差異?

黃仁勳:原因是,一旦有人想要最好的產品時,他們就一定會去選擇最好的。市場不需要那麼多細分,對於我們的發燒友來說,如果他們想要最好的,給他們稍差一點的產品來省100美元,他們是不會接受的。他們就是想要最好的。

當然,2000美元確實不是小數目,這確實是一個相當高的價格。但要記住,這項技術是要進入你的家用PC環境的。而你的那臺PC,已經在顯示器和音響上投資了約1萬美元,你肯定會想要最好的GPU。

所以我們有很多客戶,他們就是追求絕對最好的產品。

【8】談三種Scaling Law:一個良性循環

問:這次CES你提到,我們正在見證三種新的Scaling Law出現,特別是測試時規模定律(Test-Time Scaling),關於測試時計算(Test-time Compute)。我認爲OpenAI的GPT-o3模型已經表明,從計算角度來看,擴展推理的成本很高,在ARC-AGI基準測試中的一些運行成本達到數千美元。英偉達在提供更具成本效益的AI推理芯片方面做了什麼?更廣泛地說,你們如何從測試時規模定律中受益?

黃仁勳:這是個很好的問題。首先,對於測試時計算來說,無論是在性能還是成本方面,最直接的解決方案就是提升計算能力。

這就是爲什麼我們推出RTX Blackwell系列和NVLink72,新架構的推理性能可能比上一代Hopper高30-40倍。通過提升30-40倍的性能,你實際上也在降低30-40倍的成本,因爲數據中心的其他成本基本保持不變。

這個改進方式,也是摩爾定律在計算機歷史上如此重要的原因,正因爲它降低了計算成本。我之前提到我們的GPU性能在過去10年提升了10000倍,這反過來說明了我們將成本降低了幾千到上萬倍。在過去20年裡,我們將計算的邊際成本降低了100萬倍。

正是這種成本的大幅下降,讓機器學習變得切實可行。當我們提升性能時,推理也會發生同樣的事情,所以推理的成本也會下降。未來我們會繼續推動計算能力的提升,也將繼續帶來計算成本的降低。

從另一個角度來看,現在我們通過測試時間計算(Test-Time Compute)或測試時擴展(Test-Time Scaling)來獲得答案需要多次嘗試,這些答案會被用作下一輪後訓練(Post-Training)的數據,這些數據又會成爲下一輪預訓練(Pre-Training)的數據——所有我們現在收集的數據都會進入預訓練和後訓練的數據池。通過持續積累和利用這些數據來訓練超級計算機,我們可以讓模型變得更智能,從而降低推理成本,最終讓每個人的AI推理成本都變得更低。

只不過,這個過程需要時間,所以這三種Scaling Law會在未來持續發揮作用。一方面,每一次迭代我們都在提升模型的智能水平。另一方面,用戶對AI的要求也在不斷提高,會問出越來越難的問題,會要求AI具備更強的智能,這種需求會導致Test-Time Scaling的持續發展,形成一個良性且不斷擴大的循環。

【9】談自動駕駛汽車:“更大的創新可能來自中國”

問:我的問題是關於自動駕駛汽車。我記得2017年英偉達在CES上展示了一輛概念車,並在5月的GTC上與豐田合作。那麼2017年和2025年,這項技術有了哪些變化?當年存在什麼問題?現在又有什麼技術突破?

黃仁勳:首先,我認爲未來所有可移動的設備都會具備自動化功能。不會再有需要人力推的割草機了,20年後如果還有人在推割草機,那會很有趣,但這顯然毫無必要。未來的汽車,你仍然可以選擇自己駕駛,但所有汽車都將具備自動駕駛功能。這個發展趨勢已經非常明顯了。

5年前,我們還不太確定這項技術會發展到什麼程度,但現在我們非常篤定,包括傳感器技術、計算機技術、軟件技術都已經相當成熟。現在有充分證據表明,新一代汽車,特別是電動汽車,幾乎每一款都會具備自動駕駛能力。

我認爲有兩個因素推動了這個變革,真正改變了傳統汽車公司的想法。一個是特斯拉,影響力很大;但更大的影響可能來自中國令人驚歎的技術進步,蔚來、理想、比亞迪、小鵬、小米等新能源汽車公司,技術非常出色,自動駕駛能力也很強,現在正在走向世界。這給未來的汽車樹立了標準,未來每輛車都必須具備強大的自動駕駛功能。

所以我認爲,世界已經在改變,技術成熟需要時間,我們對它的認知也需要時間,但現在形勢已經很清晰了。我們的重要合作伙伴Waymo在舊金山已經遍地開花,老百姓也很喜歡它。

【10】談AI發展:“AI發展沒有任何物理限制,下一代將是用AI學習的一代”

問:英偉達是如何考慮市場策略的?AI發展的下一步需要什麼?是否存在物理限制?

黃仁勳:我們只在市場真正需要我們的時候纔會行動,如果市場存在空白,而且只有我們註定要去填補這個空白的時候,我們就會去做。我們傾向於做那些與現有市場不同的事情,或者如果我們不做就沒人會做的事情。

這就是英偉達的理念:不要重複做別人已經在做的事。我們不是市場份額的爭奪者,而是市場的創造者。我們不傾向於進入已經存在的市場去爭奪份額,那不是英偉達的風格。

比如說,市場上還沒有Digits這個東西,如果我們不開發它,世界上就不會有人去開發它,因爲軟件棧太複雜,計算能力要求太高。除非我們去做,否則沒人會去做。如果我們沒有推進神經圖形學,也不會有其他人去做,所以我們必須去做。這些都是我們必須承擔的使命。

問:我來自以色列。過去幾年裡,AI(特別是生成式AI)在各個領域發展迅速,我認爲這要歸功於推動這一時刻的科技公司。你認爲,當前AI的發展速度是可持續的嗎?短期內能維持這種勢頭嗎?

黃仁勳:是的,據我所知,AI的發展沒有任何物理限制。

第一,正如你所知,我們能夠如此快速推進AI計算的原因之一,是我們能夠以集成的方式同時構建和整合CPU、GPU、NVLink、網絡以及所有軟件和系統。

如果這些工作分散在20個不同的公司,整合起來會非常耗時。正是因爲我們掌握了所有集成技術和軟件支持,才能如此快速地推進系統發展。從Hopper、H100到H200再到下一代,我們將持續提升每個單元的性能。

第二,因爲我們能夠優化整個系統,我們能實現的性能遠超單純的晶體管性能提升。雖然摩爾定律已經放緩,儘管每代晶體管性能的提升不明顯,但我們的整體系統性能仍在逐年大幅提升。所以我認爲目前沒有明顯的物理瓶頸。

隨着計算能力的提升,Scaling Law的三種狀態將繼續發展:第一,研究人員可以用更大的模型,訓練更多數據,這是“預訓練規模定律(Pre-Training Scaling)”;第二,強化學習和合成數據生成能力,也會不斷提升,這是“後訓練規模定律(Post-Training Scaling)”;第三,如果我們繼續提高計算能力,也就意味着成本會持續下降,那麼我們可以處理大量數據,應用範圍會進一步擴大,這就是“測試時間規模定律(Test-Time Scaling)”。

所以只要沒有物理原因阻止,我們繼續提升計算能力,我認爲AI就會繼續快速發展。

問:所有重大的技術轉型都不是由一家公司完成的,比如互聯網、PC等,它們最終都會在某個時刻匯聚,才能產生這個重大變革。在AI領域,你覺得現在還有什麼缺失的部分會阻礙我們的發展,還是說一切都已經準備就緒了?我知道這個問題可能比較複雜,因爲AI的應用方式很多。但我很好奇你是否認爲生態系統中還缺少什麼關鍵部分?

黃仁勳:是的,我認爲有。讓我從兩個方面來說明。

首先,在語言和認知AI方面,我們仍在提升AI的認知能力,讓它具備多模態和良好的推理能力。其次,是如何把這項技術應用到AI系統中。

AI不是一個模型,而是一個模型系統。Agentic AI是一個模型系統的整合——有檢索模型、搜索模型、圖像生成模型、推理模型、規劃模型等等。所以這是一個完整的模型系統。

這幾年,行業不僅是在基礎AI方面創新,也一直在應用AI路徑上創新。但我們還缺少一個加速這一進程的必備要素,那就是——物理AI。

就像GPT-3是第一個達到實用水平的語言基礎模型,讓我們能在上面開發各種功能,物理AI需要像認知AI那樣有基礎模型,這就是我們開發Cosmos的原因。

所以我們必須讓物理AI也達到這樣的水平。這就是我們在開發Cosmos的原因。一旦達到這個水平,把模型推向市場,就能激活終端的大量應用場景,而且產業鏈下游的任務就能順利開展。這個基礎模型也可以作爲教師模型。

第二個AI缺失的部分,也是我們正在用Omniverse做的工作——就是將Omniverse和Cosmos這兩個系統連接在一起,使其成爲一個基於物理學的系統,這樣就能使用這種基礎模型來控制生成過程,讓Cosmos輸出的內容高度可信,而不僅只是看起來逼真。

所以,Cosmos+Omniverse是未來可能成爲一個非常龐大的機器人產業的重要起點。這就是我們這樣做的原因。

問:我是來自中國的媒體「至頂科技」。我的問題關於教育,(在AI時代),你認爲學生需要什麼樣的學習方式?或者從另一個角度問,學校應該傳授哪些知識、技能?

黃仁勳:非常好的問題。最後一個問題總會有些壓力,這是一個很好的收尾問題,因爲它涉及到一個永恆命題。

首先,讓我談談我的經歷,然後我們可以推演到下一代學生的學習。我們這一代人,是第一代必須學習如何使用計算機來做科研的人。上一代人,只用計算器、計算尺、紙和筆,我們這一代人必須學習如何使用計算機、編寫軟件、設計芯片、模擬物理。所以,我們是第一代使用計算機工作的一代人,而下一代將是學習如何使用AI工作的一代人,因爲AI就是新的計算機。

當然,現在很多重要的科學領域,未來的關鍵是如何用AI來幫助做研究:

-如何利用AI幫助進行生物學研究?

-如何利用AI幫助進行林業工作?

-如何利用AI幫助進行農業研究?

-如何利用AI幫助進行化學研究?

-如何利用AI研究量子物理?

-如何利用AI推進運籌學研究?

-幾乎每一個科學領域都會用到,包括計算機科學本身:即如何如何使用AI來推進AI的發展。

如果你想成爲記者,就要思考如何用AI來幫助自己成爲一名更好的記者。如果你想成爲作家,就要思考如何用AI來幫助自己成爲一名更好的作家。對嗎?

未來,每個學生都必須學會使用AI,就像現在這一代學生都必須學會使用計算機一樣。你要迅速意識到,AI革命是多麼深遠。這不僅僅是關於大語言模型,雖然大語言模型很重要,但AI將來會成爲字面意義上所有事物的一部分。這是我們所知的最具變革性的技術,而且發展極其迅速。

因此,我衷心感謝大家對這個行業的關注,對於遊戲玩家和遊戲產業,我真誠地感激,現在,行業與我們一樣興奮,從最初使用GPU來推進AI,到現在使用AI來推進計算機圖形學。

所有這些工作,包括與RTX Blackwell、DLSS4、神經渲染和神經着色的合作,都是由於AI技術的進步所推動的。目前,這些技術已經反哺到了計算機圖形學的發展。

值得注意的是,如果你看計算機圖形學的摩爾定律曲線,它本是在放緩,但AI的加入讓它獲得了超級動力,現在幀率達到200、300、400幀每秒,圖像完全是光線追蹤且非常漂亮。我們已經進入了計算機圖形學的指數增長曲線。實際上,我們在幾乎所有領域都進入了指數增長曲線。

所以,這就是爲什麼我認爲我們的行業將會快速變化,而且每個行業都將快速變化。

感謝你們的到來,新年快樂!