縮放原則沒有撞牆 黃仁勳:去年大家都搞錯了

針對投資AI的疑慮,黃仁勳認爲去年大家都搞錯了,預期2028年AI資料中心的規模將達到1兆美元。(圖/楊絡懸)

AI晶片龍頭輝達在17至21日舉行,創辦人黃仁勳19日進行主題演講,併發布、更新軟硬體產品,由於去年DeepSeek以低成本蒸餾其他模型的方式,引發AI市場對資本支出的疑慮,甚至是認爲Scaling Law(縮放原則)已經撞牆,不過黃仁勳表示,去年大家都搞錯了,預期在2028年資料中心的建置將達到1兆美元規模。

所謂Scaling Law,意思是AI隨着模型、數據集大小以及用於訓練的計算量增加,會使模型性能提高,因此爲了得到更好的效能,前3者都必須同時放大,因此科技巨擘纔不斷地投入AI伺服器建置。

不過去年DeepSeek推出低成本的模型,但其效能與大型語言模型不相上下,引發對Scaling Law的疑慮,甚至認爲沒有必要加大對AI伺服器的投資。

因此黃仁勳提到預訓練要解決的是資料的問題,後訓練則需解決人機互動的問題;並直言,去年大家都搞錯了Scaling並沒有遇到撞牆,他進一步解釋,從GPT開始到現在的AI推理,不再是預測下一個Token,而是產生100倍以上的Token。

如此一來推理的計算量需求、計算速度都必須提高,現在所需要的計算量,推估比需要的多出100倍,而數據的來源就是強化學習,可以產生大量的Token。

黃仁勳針對Hopper的需求高峰以及Blackwell出貨的首年相比,表示會看到AI正處於轉折,去年全球4大CSP客戶購入約130萬片Hopper架構的GPU,但今年4大CSP客戶已經購入360萬片Blackwell架構的GPU。

黃仁勳表示,未來資料中心的建置將達到1兆美元的規模,時間點就落在2028年。