火山引擎總裁譚待:AI Agent元年競逐,模型能力與雲原生基建是關鍵

21世紀經濟報道記者雷晨 北京報道

如果說2024年被視作AI應用爆發元年,那麼2025年則被視爲AI Agent(智能體)的爆發元年。隨着大模型技術從感知、生成向任務執行躍遷,AI正從“工具”升級爲“助手”,甚至“代理人”。

在這一背景下,火山引擎總裁譚待4月17日下午在杭州接受媒體羣訪時,回答了AI技術演進趨勢、商業化路徑及行業競爭等問題。

在AI Agent元年的競逐中,火山引擎重點關注模型能力,包括深度思考和多模態支持。而在這場馬拉松中,勝負遠未到分曉時刻。

譚待:模型競爭本質是能力競爭

“如果現在的AI發展是一場馬拉松,我們可能才跑了500米。”譚待用這一比喻迴應關於大模型競爭的提問。

在他看來,業界正處於你追我趕的狀態,大家在競爭中相互推動,無論是技術還是行業應用都能快速發展,這本身是一件非常好的事情。這種競爭的關鍵在於能否把模型做好,與開源閉源關係不大。

過去一年,豆包大模型的日均token調用量從4萬億飆升至12.7萬億,增長超106倍。

這一數據的背後是模型能力的多次躍遷:從基礎對話到深度思考,從文本處理到多模態推理。

譚待舉例稱,豆包深度思考模型在數學推理(AIME 2024)、編程競賽(Codeforces)等專業測試中已接近全球第一梯隊水平,而多模態深度思考能力更使其能精準完成“看圖點餐”“項目管理流程圖解析”等相對複雜的任務。

“每一次模型突破都會解鎖新場景。”譚待表示,“例如深度思考功能上線後,企業客戶開始用大模型處理財報分析、研究報告等長鏈條任務;視覺推理能力則讓智能座艙、工業巡檢等應用成爲可能。”

談及開源閉源之爭,譚待直言:“火山引擎適配DeepSeek的速度和效果是行業最優的。”他透露,第三方使用DeepSeek的雲服務中,火山引擎的佔比最高。“這反而證明了我們的技術實力——當所有云廠商站在同一起跑線上,客戶選擇的是服務穩定性與性價比。”

譚待強調,火山引擎的定位是“AI時代最好的雲”,其核心任務是通過AI雲原生架構支持多元模型生態。“企業可以自由選擇豆包或開源模型,但云廠商必須確保底層設施足夠高效、靈活。”

AI雲原生:智能時代的“新基建”

隨着AI應用從聊天機器人向Agent(智能體)演進,傳統雲計算架構面臨挑戰:如何支撐百倍增長的token調用量?如何降低推理成本?如何讓Agent安全操作現實世界?

譚待給出的答案是“AI雲原生”——一套涵蓋算力調度、開發工具、安全組件的全新基礎設施。

“通過PD分離、KV緩存、異構硬件適配等技術,我們讓GPU的推理效率提升5倍以上。”譚待介紹,火山引擎的ServingKit推理套件可將KV緩存命中率提高10倍,並支持彈性計算資源分配。例如,在延遲不敏感的場景中,舊型號GPU仍可高效運行,從而拉長硬件生命週期。

這一優化直接降低了企業成本。杭州銀行基於火山引擎AI雲原生搭建的“百業雲”,爲中小商家提供7*24小時智能客服,服務成本僅爲傳統方案的1/3。

Agent被視爲AI的下一站,但其開發複雜度遠超單點應用。譚待指出,真正的Agent需具備三項能力:深度思考、多模態交互和操作數字/物理世界的工具鏈。爲此,火山引擎推出OS Agent解決方案,整合了三大核心組件:豆包UI-Tars模型、Sandbox沙箱環境、veFaaS無服務架構。

“技術發展總是短期被高估,長期被低估。”譚待預測,未來2-3年,模型能力若在視覺推理、Agent協作等領域取得突破,token調用量或再現百倍增長。但實現這一目標的前提是AI雲原生的成熟——它不僅是算力池,更是智能時代的“水電煤”。

對於行業熱議的“AI下半場”說法,譚待並不認同:“現在連上半場都沒打完。只有當AI能像人一樣思考、感知、行動時,纔算真正改變世界。”