階躍星辰李璟:2025年將是Agent落地元年 推理能力和多模態是研究重點
《科創板日報》3月12日訊(記者 陳美)近日,“陸家嘴金融沙龍”第二期在上海浦東陸家嘴圓滿舉行。本期沙龍圍繞“資本市場大時代:AI+千行百業”這一主題,展開深度研討與交流。參會嘉賓、國內知名AI大模型公司上海階躍星辰副總裁李璟發表了關於AI大模型發展的演講,探討了Agent在當前科技趨勢下的重要性與應用前景。
“從今年1月份已經感受到大模型行業的熱潮。”李璟談到,對於AGI的發展過程,有三個階段的理解。一是模擬設計階段,這一階段模型主要對語料進行表徵模仿訓練,包括視頻、聲音、語言、圖像、4D時空等。
二是模型解決問題階段,在這一階段中,目前以強化學習範式爲核心的模型登上舞臺,最近大火的DeepSeek-R1,更早時間的AlphaGo系列學術成果,背後都是強化學習。“在這一階段中,強邏輯推理時代將帶來很多Agent的誕生。”
三是歸納階段,模型可以達到人一樣的智能。蘋果砸到牛頓頭上砸出萬有引力定律,模型也應該能自主探索科學規律;在歸納階段,AI可以主導一系列模型創新。
“就發展方向來看,近期強化學習以及新的RAG範式模型成爲熱議焦點。”李璟表示,作爲科技從業者,更關注深度求索背後的DeepSeek-R1 Zero,這是一種純強化確定框架模型範式。
在視覺推理能力的前沿探索方面,人形機器人對視覺推理能力有極高需求。但當前視覺模型仍處於類似強化學習之前的GPT範式中,未能很好地解決“理解與生成統一”的問題。“對於人類而言能輕易完成的任務,如統計照片中的人數、描述特定位置人員穿着等,現有模型存在一定難度。一旦模型探索出視覺推理能力,這將極大推動人形機器人等產業的應用。”
除了偏推理範式的模型,多模態感知也十分關鍵。李璟認爲,人類是多模態動物,具備語言、視覺、聽覺、嗅覺等多種感知方式,能天然進行多模輸入交互。“以當前最強的圖片理解模型爲例,在模擬人形機器人場景中,要求機械手在維持桌面整潔的同時取出書籍。多模態模型能夠給出良好反饋,展現出一定的推理能力,儘管多模態模型仍處於早期階段,但已彰顯多模交互在理解上的強大感知能力。”
在視頻理解方面,這是一項頗具挑戰的任務。對於無字幕和配音的視頻,多模態理解模型能夠發揮作用。在終端場景中,語音交互也是重要的交互入口。
“過去的三段式語音模型,即先語音轉文字,再經大模型處理得到文字回覆,最後轉換成語音,存在諸多弊端”,李璟解釋稱,爲解決這些問題,業界推出了生成、理解一體化方案,輸入輸出均爲語音。
基於行業的變化,2025年將是令人興奮的Agent落地元年。在李璟看來,Agent的實現主要依賴兩大能力:一是多模態交互能力。過去一年,聲音和視覺等多模態交互取得了顯著進展。二是慢思考的推理能力。以強化學習爲代表的強推理模型的出現,推動了這一技術的良好發展。“基於這兩種能力,我們堅信今年將是Agent落地的關鍵一年。”
在Agent的實際應用方面,李璟表示,看好兩個領域:一是終端領域,在與一些手機廠商的合作中,看到了下一代終端的潛力。二是金融行業。除手機終端外,金融業也是Agent的天然落地場所。金融行業需要深度思考和準確信息,這是單一大模型範式難以解決的。