黃仁勳:新一代AI讓算力需求暴增
黃仁勳盛讚DeepSeek是出色的創新,併爲世界一流的推理模型開源。圖/美聯社
2019~2030年全球算力規模
今年1月下旬DeepSeek橫空出世導致輝達(Nvidia)股價跳水,外傳DeepSeek的R1模型在訓練時所需的晶片更少,但輝達執行長黃仁勳26日接受CNBC專訪時強調,新一代AI所需要的運算能力較舊模型高出100倍。
談及DeepSeek是否需要更少的算力,黃仁勳以人類就學的過程解釋AI模型的運作與開發的階段。首先,AI像高中生學習大量的基礎數學、語言,與其他科目一樣,對人類知識進行基本理解,完成「預訓練(pre-training)」階段,爲後續發展奠定基礎。
在「後訓練(post-training)」階段,AI透過三種強化學習方式進步:從人類獲得回饋(RLHF),進行大量練習(RLAIF),以及接受考驗測試(RLVR)。他說,「現在基本上是AI教導AI如何變得更好,目前在這後訓練過程中正在進行大量創新。」
黃仁勳引用的推理模型包括DeepSeek的R1、OpenAI的GPT-4和xAI的Grok 3等。他指出,新型AI須思考「如何最好地回答」問題,透過逐步拆解,甚至可能進行反思、提出數種版本,並挑出最好的答案提供給使用者,因此「過程中所需的算力,比ChatGPT首次發佈時要多出100倍。」
黃仁勳表示,「突然之間,在這些強化學習、合成數據生成與推理等相關想法的全部結合下,導致算力需求竄升。」他認爲,DeepSeek將需要更多晶片的推理模型推向普及化,「DeepSeek太棒了,因爲它將世界一流的推理模型開源。」
黃仁勳也在法說會上稱讚R1是一項「出色的創新」,並強調這些推理模型的出現對輝達來說都是好消息,因爲意味着算力需求增加。輝達股價在今年1月27日重挫17%,寫下2020年以來最大跌幅,至今仍未完全反彈。
部分人士認爲,DeepSeek的問世可以突破美國對中國的晶片出口管制策略,黃仁勳認爲開發人員可能會透過軟體尋找繞過出口管制的方法。他說:「最終,軟體會找到解決方法。」他表示,輝達在美國銷售的GB200,其AI生成的速度較銷往中國的閹割版快上60倍。