豆包大模型再次大幅降價,火山引擎還在激進爭奪市場份額
豆包系列大模型價格再次大幅降低,但定價策略有了很多新變化。
在火山引擎Force原動力大會上,火山引擎總裁譚待對外發布了豆包大模型1.6、視頻生成模型Seedance 1.0 pro等多款新模型。
其中,豆包大模型1.6首創按“輸入長度”區間定價,深度思考、多模態能力與基礎語言模型統一價格的模式。在企業使用量最大的0-32K輸入區間,豆包1.6的輸入價格爲0.8元/百萬tokens,輸出8元/百萬tokens,成本比豆包1.5下降了63%。這意味着,企業只需要原來三分之一左右價格,就能獲得一個能力更強、原生多模態的新模型。
Seedance 1.0 pro的價格是每千tokens1分5釐,相當於每生成一條5秒的1080P視頻只需3.67元,這個價格比市場上多款視頻生成的價格便宜了70%左右。以此計算,企業花費1萬元可以生成2700條5秒的1080P視頻,這個價格也已大幅低於人工製作的成本。
一年之前,豆包大模型在行業中率先降價,把Token的定價降低了一個數量級,並帶動大模型行業出現了降價潮。談及兩次降價,譚待表示,去年豆包大模型1.0在模型結構和工程上都做了大量優化,把價格降低了99%以上。這一次,豆包大模型在絕大部分企業用的32K範圍的成本進行了定向優化,同時也在商業模式上進行了創新。
成本定向優化如何實現?
豆包大模型改變定價策略的的出發點是,用戶使用同一個尺寸和參數的模型,成本和是否開啓深度思考、是否使用圖像理解的關係並不大,而主要影響成本的因素就是上下文窗口。
上下文窗口是模型在生成回答或理解用戶輸入時,能關聯的歷史對話記錄、前文內容的最大長度。具體來說,它決定了模型在生成或理解文本時,可以同時看到和利用多少個詞或字符的信息。比如,輸入10個詞和輸入1000個詞,處理的成本差很多。
現實中,大多數企業的輸入其實長度是有分佈的。大部分輸入有一個相對集中的分佈區間,但偶爾也會出現一個更長的輸入。如果不同長度的任務直接混在一起處理,大模型內部會因爲任務長度不同而“卡殼”或“等待”,效率較低,就像一輛快車要等慢車,浪費了速度。
火山引擎給出的策略是PD分離,即把不同長度的請求分組、分區調度,再通過集中調度,把同一長度的任務一起分配給模型,方便並行處理,提升效率。這個原理和快遞公司打包物品類似,如果把所有尺寸的物品都混一起打包,就會浪費空間。如果分類打包,就會節省很多材料和空間。
豆包大模型1.6把企業使用量最大的0-32K輸入區間進行了大幅降價,但在這個輸入區間之外的長度,用戶就要付出更高的成本。根據譚待在發佈會現場透露的信息,在輸入區間32K-128K的範圍內,豆包1.6的價格是輸入1.2元每百萬tokens,輸出16元每百萬tokens;在輸入區間128K-256K的範圍內,豆包1.6的價格是輸入2.4元,輸出24元。
上下文窗口成本定向優化和核心思路是將“粗放式調度”轉向“精細化運營”,這不僅節省算力,也提升了整個大模型服務體系的效率與可持續性。
爭奪Agent規模化應用帶來的機會
去年,豆包大模型大幅降價是爲了爲大模型在企業中的落地應用掃清成本障礙。
從調用量來看,豆包大模型已基本實現這一目標。根據火山引擎公佈的數據,豆包大模型日均tokens使用量超過16.4萬億,較去年5月首次發佈時增長137倍。
今年,豆包大模型再次降價,是爲了爭奪Agent規模化應用給雲服務帶來的新機會。由於Agent每次執行任務都會消耗大量tokens,模型使用成本也要降下來,才能推動Agent的規模化應用。
譚待接受界面新聞等媒體採訪時表示,火山引擎需要先把雲基礎設施做好,還要把圍繞Agent開發的平臺和工具做好。
他透露,火山引擎今年設定了非常激進的目標。“大家對AI的需求是很旺盛的,但也非常困惑怎麼選擇好的模型、怎麼把模型用好。我們把自己的產品做紮實,把成本做低,把方案做好,把標杆客戶做紮實,業務目標自然就可以完成。”
激進的目標的背後,是火山引擎迫切需要大模型帶來的增量尋求市場份額的提升。
火山引擎主要瞄準兩項需求,一個是來自於大模型訓練和推理對雲服務產生的新需求,以及企業在尋求AI創新和數字化轉型上產生的新需求。
一年過去,火山引擎在市場份額上已經獲得了一些成效。IDC報告顯示,豆包大模型在中國公有云大模型市場份額排名第一,佔比高達46.4%。
今年被認爲是Agent的元年,火山引擎當然也不會放過這個機會。
據界面新聞了解,AI coding是字節跳動爲數不多自己下場做的應用。今年年初,字節跳動已經發布AI編程產品TRAE,面向中英文開發者社區,與Cursor、GitHub Copilot等同類工具展開競爭。它兼具生成式開發與智能協作,適合項目啓動、原型構建,也爲長期開發流程增效。
最新發布的豆包大模型1.6在AI coding能力方面取得了較爲明顯的進步。其支持256K tokens上下文,處理大型項目、多文件依賴、長邏輯鏈等場景的能力更強,可進行瀏覽器模擬點擊、表格填寫等解析界面操作。
字節跳動技術副總裁洪定坤透露,豆包1.6模型已經接入TRAE內測,新模型將很快推送給用戶。在字節內部,超過80%的工程師在使用TRAE輔助開發。TRAE的整體月活用戶已經超過了100萬。
而對於其他Agent應用,火山引擎其主要寄希望於通過外部合作伙伴來完成。譚待表示,PC時代主體是Web,移動時代是APP,AI時代則是Agent。“火山引擎希望和去年一樣,通過模型的大幅降價再一次促進Agent AI的普及。”