專訪面壁智能CEO李大海:端側AI的方向是個性化,開源與商業化不矛盾

21世紀經濟報道記者白楊 北京報道

在由ChatGPT掀起的大模型創業熱潮中,面壁智能是相對低調的一家創業公司。雖然沒有被列入大模型創業“六小虎”,但它的實力,依然不容忽視。

今年DeepSeek崛起後,《麻省理工科技評論》刊發了一篇題爲《關注DeepSeek之外的4家中國人工智能初創公司》的報道,指出階躍星辰、面壁智能、智譜AI、無問芯穹4家企業同樣展現出不遜於DeepSeek的技術實力與全球競爭力。

在近日召開的2025中關村論壇年會期間,21世紀經濟報道記者獨家專訪了面壁智能CEO李大海。

他向記者表示,DeepSeek今年的崛起,再一次證明了面壁智能在2024年6月份提出的知識密度定律(大模型的知識密度每100天會提升一倍)。不管是雲側模型還是端側模型,提高模型的知識密度都很重要。

2024年初,面壁智能正式發佈了被稱爲“小鋼炮”的MiniCPM端側模型,目前累計下載量接近700萬。

李大海表示,端側AI未來的主要發展趨勢仍然是小型化,然後逐步的端側原生化,以及由端側原生化帶來的逐步個性。在具體落地場景上,他認爲汽車和手機是最重要的方向。

在2025中關村論壇年會上,李大海面向汽車場景發佈了全新的純端側智能助手cpmGO。去年12月,面壁智能還成功部署了首個純端側屏幕助手,並已進入量產序列。

另外,面壁也是大模型開源的擁護者。李大海表示,當前的AI開發模式下,開源本身就是一個商業模式。DeepSeek已經非常形象地向大家展示了這一點。

同時,他認爲,商業化與開源並不矛盾,商業化反而會由於開源得到最大化。

以下是對李大海的採訪(內容略有刪減):

21世紀:你如何看待今年DeepSeek的崛起?它對面壁智能以及端側AI的發展帶來哪些影響?

李大海:DeepSeek展示了高效大模型的魅力。高效,意味着更高的知識密度,和更低的成本。我們看到,DeepSeek的模型相比o1,知識密度大概有了10倍的提升,又免費開放給全世界人們使用,確實從智能感觀上比較震撼。面壁在2024年6月提出了知識密度定律(大模型的知識密度每100天翻一番),這一規律也再一次得到了印證。

尤其在端側,知識密度的提升尤爲重要。因爲雲端知識密度的高低可能隻影響着成本,尚可通過補貼等方式抹平。但在終端上,知識密度越高,則意味着可用性越強。在終端需要平衡性能與功耗,就像戴着鐐銬跳舞—— 更輕量高性能的模型,才能將功耗極致控制在臨界值以下,使得其可以在終端運行使用。

21世紀:這個密度定律,你覺得今年是否會依然有效?未來這種以小博大的技術路徑,要如何突破雲端模型的算力壁壘?

李大海:我相信它在未來很長一段時間都會持續有效,就像摩爾定律已經持續有效了半個世紀一樣。

在我看來,端側模型跟雲端模型的分工是不同的。端側模型信息安全保護和貼近用戶的先天優勢,所以更適合用來做貼身服務的個性化工作。

而云端模型規模更大,Scaling Law也仍然有效,所以它可以去做更復雜的、需要深度思考的工作。現在我們看到很多類似DeepResearch的功能,他要工作好幾個小時,然後輸出複雜的報告,這些就是雲端該做的事情。

端側要足夠快、足夠敏捷、足夠符合直覺,快速給出儘可能精準的決策行動。他們倆分工是不一樣的,端側模型也不需要去擊敗雲端模型。

21世紀:面壁一直在走堅持開源的路線,請你談一下對於開源的思考?

李大海:當前的AI開發模式下,開源本身就是一個商業模式。DeepSeek已經非常形象地向大家展示了,爲什麼開源是一個好的商業模式。因爲一個優秀的模型,通過開源的方式,能夠迅速讓對它感興趣的人接觸、使用、下載,讓市場成本變得足夠低。這便是開源的魅力。

面壁一直是開源的擁護者。幾乎每一款模型都進行了開源。我們的端側模型從2024年1月份到現在已經積攢了近700萬的下載,是2024年HuggingFace最受歡迎、最多下載量的中國大模型,我們骨子裡就是崇尚開源和相信開源的。

另外,我認爲開源是一種信仰, 除了非常務實的去講它是一個商業模式外,開源本身也是AI領域能夠快速發展的底層原因。在AI領域,大家都非常開放,有什麼樣的想法都會第一時間發論文,把代碼開源出來,這樣才能夠讓行業裡面每個人都能站在別人的肩膀上,能夠跑得更快。

舉個例子,面壁2024年1月發佈MiniCPM-1,使用了WSD學習率調度器,後續被Huggingface Transformer庫集成,Llama、Deepseek均也採用了類似技術進行模型訓練。

面壁一方面在行業裡去做這樣的貢獻,同時也會非常積極地學習開源領域中最新發布的技術。衆人拾柴火焰高,才能讓AI發展日新月異。

21世紀:你怎麼理解開源和商業化之間的矛盾,如何平衡這二者關係?

李大海:我覺得商業化這件事情不是受開源影響,反過來,商業化會由於開源這個模式得到最大化。

我們看DeepSeek,它其實就從開源這件事裡把自己技術優勢的商業利益最大化。如果DeepSeek做出R1時選擇閉源,那他變現技術優勢的速度會非常慢。而現在,他用開源的方式一下子把全球點燃了。所以開源用的好,其實能夠讓商業利益更大化。

21世紀:你認爲今年端測AI的發展會有哪些趨勢?還會面臨哪些挑戰?

李大海:端側AI的發展趨勢一定仍然是小型化,然後逐步的端側原生化,以及由端側原生化帶來的逐步個性化。

當然我們也相信,雲端的高階推理技術會逐步在端上實現。但是由於端和雲各自固有的不同特點,所以端上不需要所有場景都用高階推理。慢思考對於有些場景來說反而是不適用的,所以在端上我們也會更審慎的去使用高階推理能力。

21世紀:你曾表示AGI的實現需要7到10年,現在這個預測是否有變化?對面壁智能而言,今年的工作重心是什麼?

李大海:我們拿知識密度定律的週期跟摩爾定律的週期去做對比,因爲知識密度定律的週期是100天,摩爾定律是18個月,二者大概是六倍的關係。

整個計算的發展經歷了半個多世紀,經歷了50-100個週期的迭代,我們覺得在AI領域,可能也需要接近50到100次週期迭代,才能夠達到非常理想的狀態。

從2018年BERT發佈,以此爲元年算起,其實已經經歷了五六年,所以全部算下來,差不多就是7到10年,這是一個底層邏輯。但是我們也相信人類的技術發展是非線性的,當模型越來越好的時候,這個過程會被加速。

面壁智能今年的工作重心仍然是端側。我們會重點把端側模型做好,讓它更加個性化,能夠去更好地服務用戶。在具體場景上,現在汽車跟手機一定是最重要的方向,另外我們也在同步探索很多新方向,比如我們的端測模型已經部署在了機器人上。