使用成本降至三分之一!字節大模型,重磅更新!

豆包大模型重磅升級,並推出創新性的“區間定價”模式,打響了一場平衡成本與性能的“價值戰”。

6月11日,字節跳動旗下火山引擎舉辦Force原動力大會。會上,豆包大模型家族全面升級,火山引擎發佈了豆包大模型1.6、豆包視頻生成模型Seedance 1.0 Pro、實時語音與播客等新模型,並升級了Agent(智能體)開發平臺等AI雲原生服務。除了主論壇外,本次大會還將舉辦多場從技術革新到行業場景落地的分論壇,涉及芯片、汽車、智能終端、軟件應用等領域的衆多企業合作伙伴。

綜合來看,本次大會的核心關鍵詞有三個,分別是性能升級、成本下降、應用普惠。性能升級上,權威測評成績顯示,豆包1.6—thinking的表現已躋身全球前列;成本下降上,豆包1.6首創按“輸入長度”區間定價,使綜合使用成本降至豆包1.5深度思考模型的三分之一;AI普惠上,在性能與成本的雙重加持下,有望加速智能體的大規模應用落地。

豆包大模型1.6發佈,性能躋身全球前列

會上,最受關注的當屬豆包大模型1.6系列的重磅發佈。

其中,豆包1.6是全功能綜合模型,支持256K長上下文,能夠自適應思考(即自動判斷是否開啓深度推理);豆包1.6—thinking則強化深度推理,編碼、數學、邏輯能力顯著提升,支持複雜智能體構建;豆包1.6—flash則是極速版本,具有低延遲特點,適用於智能客服、語音助手等實時交互場景。

據會上披露的多項權威測評成績,在複雜推理、競賽級數學、多輪對話和指令遵循等測試集上,豆包1.6—thinking的表現已躋身全球前列。

此外,豆包1.6還在多模態能力上取得了新突破,支持實時視頻通話分析、商品圖片同款識別等。據火山引擎總裁譚待介紹,豆包1.6系列模型支持多模態理解和圖形界面操作,能夠理解和處理真實世界問題。此前,豆包1.5的多模態能力在60個公開評測基準中取得38項最佳成績,已廣泛應用在電商識圖、自動駕駛數據標註、門店巡檢等場景。圖形界面操作能力則讓豆包1.6進一步具備“行動力”。

除了豆包大模型1.6系列,視頻生成模型Seedance 1.0 pro也在本次大會上亮相。在國際知名評測榜單Artificial Analysis上,Seedance在文生視頻、圖生視頻兩項任務上均排名首位,超越了谷歌的Veo3、快手的可靈2.0等優秀模型。

使用成本下降至1/3,首推“區間定價”

一直以來,豆包大模型都在積極推動降低成本,屢屢刷新行業價格底線。本次大會,豆包大模型1.6的價格體系也成了關注焦點。

會上,譚待表示,通過技術和商業的雙重創新,豆包1.6首創按“輸入長度”區間定價,深度思考、多模態能力與基礎語言模型統一價格。這一定價體系打破了行業的定價規則,讓企業以更低成本獲取更強AI能力。

具體來看,根據以往的模型定價機制,大模型按tokens(文本基本處理單元)收費,輸入輸出的tokens數量直接決定成本。例如輸入1000字的中文文本約生成1500個tokens,而輸出1000字則需約1500個tokens,上下文長度是成本的核心變量。

而根據豆包大模型1.6的定價策略,其主要有兩大核心特點:

一是統一價格,消除功能溢價。這意味着,無論是否開啓深度思考或多模態功能,豆包大模型1.6的token價格完全一致,打破行業慣性,讓企業無需爲非必要功能支付額外成本。

二是分區調度,可精準匹配需求。豆包大模型1.6將定價區間按照輸入長度分爲0—32K區間、32K—128K區間和128K—256K,價格隨着輸入長度的增加而增加。其中,在企業使用量最大的0—32K輸入區間,豆包1.6的輸入價格爲0.8元/百萬tokens、輸出8元/百萬tokens,綜合成本只有豆包1.5深度思考模型或DeepSeek R1的三分之一。

豆包1.6與豆包1.5thinking綜合使用成本對比

此外,Seedance 1.0 pro模型每千tokens僅0.015元,每生成一條5秒的1080P視頻只需3.67元,爲行業最低。

譚待表示,之所以按“輸入長度”區間定價,是因爲火山引擎觀察到,模型成本存在“成本遞增效應”,即隨着上下文長度增加,模型處理每個token的計算複雜度呈指數級上升。例如有些模型在處理超過128K tokens時收費翻倍,因其注意力機制需與前文所有tokens進行關聯計算。“當前,超過80%的企業調用請求集中在32K tokens以內。若能針對這一主流區間優化調度,可顯著降低整體成本。”譚待說。

因此,豆包大模型1.6通過區間定價模式,能夠在性能與成本之間取得平衡,從而精準匹配企業需求分佈。

加速Agent的大規模落地

“豆包1.6的定價策略不僅是一次簡單的降價,更是AI普惠的戰略升級。”字節跳動火山引擎表示。

業內人士普遍認爲,2022年年底,Chat GPT的橫空出世引爆了AI大模型,經過兩年多技術迭代,如今AI智能體已成爲行業焦點和落地方向。2025年是智能體爆發元年,智能體在金融、汽車、教育、港口、礦山、運營、客服等多個領域密集涌現。

然而,在AI智能體快速發展的當下,規模化落地面臨多重挑戰。根據行業觀察,企業級Agent的實際應用成本壓力尤爲突出,單個Agent每日token消耗成本可達20美元。IDC數據顯示,2024年中國AI智能體市場規模僅50億元,遠低於預期,反映出企業對高成本的觀望心態。

因此,豆包大模型1.6的定價策略錨定成本高這一痛點,以上下文長度爲核心的分區間定價模式,使企業使用成本降至行業平均的1/3左右,有望加速Agent的大規模落地應用。

事實上,豆包大模型近年來在市場上不斷“攻城略地”,使用量也呈現出爆發性增長的態勢,據火山引擎披露,豆包大模型日均tokens調用量從去年12月的4萬億飆升至2025年5月的16.4萬億。年增長率超300%。

同時,火山引擎也憑藉快速增長的勢頭,“攪動”着雲市場原有的市場格局。IDC發佈的《中國公有云大模型服務市場格局分析,2025年一季度》報告顯示,2024年中國公有云大模型調用總量達到114.2萬億tokens,其中火山引擎佔據46.4%的市場份額,位列第一,調用量幾乎等於阿里雲與百度雲之和。

業內人士分析稱,正如豆包1.0以極致性價比開啓了大模型的規模調用時代,豆包1.6在性能與成本上的優化,或將加速Agent的大規模落地,降低企業AI應用門檻,進而鞏固火山引擎在AI雲原生基礎設施領域的領導地位。

責編:葉舒筠

校對:王朝全

版權聲明

" Type="normal"@@-->

證券時報各平臺所有原創內容,未經書面授權,任何單位及個人不得轉載。我社保留追究相關行爲主體法律責任的權利。

" Type="normal"@@-->

END

" Type="normal"@@-->