李開復:大模型已經白菜價,AI-First應用很快將井噴

21世紀經濟報道記者白楊 北京報道

3月29日,在2025中關村論壇年會未來人工智能先鋒論壇上,創新工場董事長兼零一萬物CEO李開復表示,AI 2.0是有史以來最偉大的科技革命與平臺革命,大模型走出實驗室,正穿透各行各業成爲驅動實體經濟的新質生產力。

李開復稱,ChatGPT推出之後的兩年裡,大模型智力在不斷地提升,而且目前看起來遠沒有觸及天花板。與此同時,大模型的推理成本在以每年降低到十分之一的速度快速下降,這爲AI-First應用爆發提供了非常重要的條件。

“兩年前性能不夠好的模型,現在已經夠好了;兩年前推理成本太貴的模型,現在已經是白菜價了。”因此在李開復看來, AI-First應用很快將井噴,2025年將會是AI-First應用爆發、大模型“落地爲王”的元年。

幾個月前,前OpenAI聯合創始人Ilya公開表示,預訓練階段的Scaling Law已經放緩。因爲模型訓練所用的數據量已經觸及瓶頸,算力方面也存在着客觀制約因素——隨着GPU數量增加容錯問題等導致邊際效益降低。

因此即便訓練出超大參數量的大模型,比如OpenAI所發佈的GPT-4.5,模型性能確實有提升,但是GPT-4.5的價格是DeepSeek-V3的500倍。這說明超大參數量的模型價格十分昂貴,性價比並不突出。

好在行業內已經出現了新的曙光,Scaling Law正從預訓練階段轉向推理階段,也就是慢思考模式。

李開復表示,過往預訓練階段的Scaling Law是指:有更多的GPU、更多的數據,模型就可以變得更聰明,但目前看其增長趨勢放緩了。新的慢思考Scaling Law是指:模型思考的時間更長,就會得出有更優質的結果。

目前看來,慢思考Scaling Law下,模型性能的成長速度非常快,而且還有很大的增長空間。

結合這些新的技術創新,現在模型訓練的過程也變得非常有意思。先訓練一個“文科生”,讓模型閱讀所有的書籍,然後再向理科方向訓練,讓模型能夠證明數學題、會寫代碼,最終得到的“文理雙全”的模型會非常厲害。

此外,李開復還指出,現在行業正進入一個非常有意思的“AI教AI”時代。

他表示,從 OpenAI 發佈o1到發佈o3,中間只隔了三個月。 DeepSeek-R1也是在OpenAI o1發佈的兩個月之後就正式發佈,並且可能很快就會發布 R2。

“無論是從o1到o3,還是從R1到R2,模型迭代的速度都縮短到了三個月。一個重要的原因就是現在很大程度上已經不再單單依靠人來發明新算法、發明模型架構,而是 AI 藉由慢思考具備了反思的能力,能夠自我迭代、自我進步”。李開復說道。

這意味着AI已經進入到自我演進範式。現在,模型性能更好的模型可以去教那些基礎較弱的模型,超大參數模型可以去訓練參數量較小的模型。

李開復將這樣的搭配比喻爲“老師”和“學生”,“超大預訓練模型的價值將進一步體現在‘教師模型’的角色中,經過蒸餾、數據標註和合成數據,未來模型性能的提升會進一步加速。”

另外,李開復還分享了他對DeepSeek的一些觀察。其中他提到,中國迎來了屬於自己的“DeepSeek Moment”,這大幅加速了大模型在中國的全面落地。

大概9個月前,李開復曾經沮喪地說,中國還沒有“ChatGPT moment”,雖然過去也有表現不錯的模型出現,但是卻始終缺少一個一枝獨秀的模型,能夠支撐 ToB、ToC應用百花齊放,能夠讓每個企業CEO都在追問IT部門“什麼時候能在企業裡接入大模型?”

而現在,企業和用戶經過“DeepSeek Moment”的市場教育,讓中國市場真正覺醒,這也爲中國AI-First 應用的爆發掃清了一大障礙。

李開復認爲,過去做大模型應用最大的瓶頸之一,就是需要教育市場。如果一個初創公司需要教育市場,那它幾乎沒有成功的可能,因爲教育市場需要的時間太長,前景未卜。今天DeepSeek完成了對中國ToB、ToC市場的市場教育, 這讓AI-First應用爆發又多了一個強有力的支撐。