字節火山引擎譚待隔空迴應百度沈抖:少做無端猜測,行業應聚焦基本功|鈦媒體AGI
火山引擎總裁譚待
火山引擎總裁譚待首次迴應百度沈抖對於“卷”大模型低價以及DeepSeek衝擊的觀點。
鈦媒體AGI 2月13日消息,百度集團執行副總裁、百度智能雲事業羣總裁沈抖在全員會上表示,“國內大模型去年‘惡意’的價格戰,導致行業整體的創收相較於國外差了多個數量級”。
沈抖明確表示,面對DeepSeek的來勢洶洶,首當其衝的AI產品,是字節跳動的豆包,理由是其訓練成本和投流成本都很高。
對此,鈦媒體AGI獲悉,火山引擎總裁譚待通過朋友圈迴應稱,大模型降價是通過技術創新實現的,大家應像DeepSeek一樣聚焦基本功,少做無端猜測。
譚待表示,豆包1.5Pro模型的預訓練成本、推理成本均低於DeepSeek V3,更是遠低於國內其他模型,在當前的價格下有非常不錯的毛利。
“國內外的廠商都在依靠技術創新,降低模型價格。我們也只是實現了Gemini 2.0 Flash 的價格水平而已,這個價格,完全是依賴技術進步可以做到的。”譚待進一步呼籲,“大家應該像 DeepSeek 一樣聚焦基本功,聚焦創新,不急不躁,少無端猜測,歸因外部。”
據悉,Doubao-1.5-pro-32k的百萬tokens輸入價格爲0.8元,命中緩存爲0.16元,輸出價格爲2元。據披露其毛利率達到50%以上。
數據顯示,豆包大模型的調用量在過去一年快速增長,去年12月的日均tokens使用量已超過4萬億,較5月首次發佈時增長了33倍。
值得注意的是,近期火山引擎宣佈接入了DeepSeek的模型。同時,2月12日,豆包大模型團隊還公佈全新的稀疏模型架構 UltraMem,推理速度較 MoE(混合專家模型)架構提升2-6倍,推理成本最高可降低83%,在技術創新上不斷髮力。
(本文首發於鈦媒體App,作者|林志佳)