OpenAI 、百度升級價格戰 免費成大模型“標配”

21世紀經濟報道記者孔海麗 北京報道

DeepSeek大幅拉低了大模型開發與應用成本,將壓力傳導給了所有廠商。

2月13日凌晨3點,OpenAI火力全開,其首席執行官塞姆·奧特曼(Sam Altman)宣佈,將很快發佈GPT-5,並且免費無限使用。

北京時間13日上午,文心一言官宣,將於4月1日0時起全面免費,並且,即日起上線深度搜索功能。

這背後,既是大模型成本的不斷降低,也可以理解爲,DeepSeek一定程度上拉開了真正的AI競爭——用戶流量爭奪也像技術迭代一樣,激烈異常。

包括阿里、字節、百度等AI大廠知情人士告訴21世紀經濟報道記者,DeepSeek突然爆火,讓這個春節假期變成了“緊急加班期”。

“我們原本預判,C端認知分水嶺不會這麼快到來,市場非常大、未來足夠遠,但是DeepSeek虹吸了海量消費者,今年我們會花大力氣做to C的產品開發和推廣。”國內一家大廠AI從業者說。

另有一位不願具名的科技大廠AI相關崗位人士告訴21世紀經濟報道記者,新的一年,用戶認知是OKR裡的重點工作。

同在13日,騰訊讓旗下AI大模型騰訊元寶接入滿血版DeepSeek R1 671B,同時可選深度思考和聯網搜索,劍指用戶流量。與DeepSeek本尊相比,明顯“不卡了”。

從技術軍備競賽到用戶入口爭奪,大模型廠商的戰略重心正發生根本性轉向。

當推理成本以每年90%的速度下降,免費開放核心能力成爲頭部玩家的必然選擇——通過零門檻接入快速佔領開發者生態,在應用層爆發前構建用戶護城河。

而中小廠商或將面臨“用不起算力,留不住客戶”的雙重困境。

“免費即標配”

DeepSeek將單次推理成本降至可忽略水平,大模型從技術制高點轉變爲基礎設施,免費策略成爲吸引用戶、建立生態的必經之路。

快思慢想研究院院長、原商湯智能產業研究創始院長田豐認爲,當前DeepSeek具有很強的複雜任務推理能力,又具備聯網搜索能力,搜索深度能達到50個相關網頁,所以免費版DeepSeek不僅在搶其他to C大模型App的用戶,還在搶搜索引擎的用戶與廣告流量。

百度此次宣佈全面免費,或許意在“找回”用戶。作爲最早一批面向市場的AI大模型,沒有人能夠否認文心一言拿到了第一批國人的AI心智。但隨着Kimi、豆包、DeepSeek等後起之秀輪番上場,屬於文心一言的活躍用戶,也在重新流向市場。

OpenAI也難置身事外。DeepSeek讓奧特曼首次承認OpenAI的閉源策略站在了歷史的錯誤一邊,C端用戶對DeepSeek的追捧,讓這家AI巨頭也開始擔憂起“AI入口”的地位是否能保。

如今,奧特曼把“期貨”都拿出來了,提前宣佈,未來即將發佈的GPT-5允許免費用戶在標準智能設置下無限制使用。同時爲了留住付費羣體,Plus和Pro用戶可以調用“高智能水平”和“更高智能水平”的功能。

這些業務舉措,本質上是對用戶入口的焦土式爭奪。

與此同時,中小廠商的生存顯得愈發艱難。

算力成本對長尾廠商而言,是非常沉重的負擔。雖然訓練大模型的成本已經有明顯下降,但免費策略將迫使企業每日承擔數百萬次推理的沉沒成本。

跟進免費,經濟賬算不過來;不跟進免費,幾乎等同於斷了發展的路。

“C端用戶一向喜愛在免費的AI模型中選擇領先性最好的。”田豐說,當免費成爲標配,留給to C通用大模型中小廠商的時間不多了。

大模型價格戰再升級

正是DeepSeek開啓了大模型價格戰,並不斷推向高潮。

DeepSeek V2模型於2024年5月發佈,API定價爲每百萬tokens輸入1元、輸出2元(32K上下文),僅爲OpenAI GPT-4 Turbo價格的約1%(輸入價格僅爲GPT-4 Turbo的1/70至1/35)。

這種“價格屠夫”策略直接打破了行業原有的定價體系,掀起了巨浪。例如,GPT-4 Turbo的定價爲輸入每百萬tokens約70元,而DeepSeek-V2僅需1元,性價比優勢顯著。

當年5月,百度迅速跟進,旗下文心大模型兩款主力模型ERNIE Speed和ERNIE Lite全面免費,並立即生效。阿里雲緊隨其後,將通義千問GPT-4級主力模型Qwen-Long的API輸入價格從0.02元/千tokens降至0.0005元/千tokens,降幅達97%,價格僅爲GPT-4的1/400。字節跳動則推出豆包大模型,其pro-32k版本定價0.0008元/千tokens,號稱“比行業便宜99.3%”,相當於1元可處理284張720P的圖片。

2024年底2025年初,競爭繼續升級。阿里雲於1月1日宣佈通義千問視覺理解模型全線降價超80%,Qwen-VL-Plus輸入價格低至0.0015元/千tokens,稱其爲全網最低。

1月20日,DeepSeek-R1的API服務定價爲每百萬輸入tokens 1元(緩存命中)/4元(緩存未命中),每百萬輸出tokens 16元(2月9日前的優惠期減半),這一價格遠低於OpenAI o1的438元每百萬輸出tokens。

國際廠商亦被迫應戰。OpenAI免費開放推理模型o3 mini,2024年5月發佈的GPT-4o不僅性能提升,還允許免費使用基礎功能,同時API調用價格較此前版本減半。在DeepSeek-V3和R1壓力下,2025年2月6日,OpenAI發佈的o3-mini模型,價格較前代降低63%。

“DeepSeek和其他各家AI基礎模型企業,都在通過基礎設施優化、工程化能力持續降低成本。”田豐表示,2025年會是大模型的“成本年”。

一位AI資深觀察人士認爲,免費即將成爲大模型競爭常態的當下,廠商們需要探索新的盈利模式。比如增值服務、數據銷售、廣告投放等。通過爲用戶提供更多的價值,在其他領域實現商業價值的最大化。

端側應用初具爆發態勢

價格戰的底層驅動力是推理成本的大幅下降。

以文心大模型爲例,其日均調用量從2023年的不足5000萬次躍升至2024年的15億次,規模效應顯著攤薄單位成本。阿里雲則通過自研芯片和算力優化,將通義千問長文本處理成本壓縮至行業最低。

技術迭代也加速了降價進程。文心一言的深度搜索功能集成了多模態輸入與專家級內容生成能力,可調用外部工具處理複雜任務,使其能夠以更低成本覆蓋更廣泛場景。字節跳動的豆包模型則憑藉火山引擎的高效算力調度,實現TPM(每分鐘請求數)限額達到行業標準的2.7-8倍,進一步降低邊際成本。

DeepSeek是這方面的極致代表,其兩款模型訓練成本僅爲560萬美元左右,約爲OpenAI同類模型的十分之一,它通過優化算法採用MoE架構、多頭潛在注意力(MLA)等技術,高效硬件利用,GPU集羣使用效率遠超行業平均水平,顯著降低了算力需求。

短期看,成本下降催生了醫療、教育、創意等領域的應用浪潮;長期看,免費模式與多模態能力將重塑行業生態。

由DeepSeek引發的端側AI應用熱潮正席捲全球。

田豐表示,“DeepSeek時刻”帶來了各行各業使用AI的“成本拐點”,開源意味着用戶可以隨意修改模型權重和訓練過程,同時二次開發商用時還不需要License費用,這是全球開發者的創新機會。

“極低的推理成本、運營成本,會直接激活一大波AI應用創新浪潮。”田豐說,衆人拾柴火焰高,國產大模型“操作系統”上將會涌現出超級AI應用,讓用戶規模、市場需求呈指數級上升。

與此同時,其他廠商也在擴大AI應用的規模化落地。數據顯示,文心大模型在醫療、教育等垂直領域的AI Agent應用快速普及。阿里雲和百度與教育、醫療機構合作,大幅提升了產業效率。

AI觀察人士表示,一系列最新模型以低成本、高性能和跨場景兼容性,將推動AI技術從雲端向終端設備滲透,重構軟硬件生態,開啓“端側AI元年”。

從芯片到應用的生態重構

DeepSeek以低成本高效率爲特徵的崛起,引發全球科技巨頭競相合作。

海外方面,英偉達、亞馬遜、微軟等已接入其API,英特爾已針對DeepSeek進行硬件優化,使開發者能以更低成本部署複雜任務;國內華爲雲、騰訊雲、阿里雲等頭部雲服務商,三大運營商,以及大批科技企業和上市公司,都已宣佈加入生態。

DeepSeek的工程技術路線的創新和開源策略,帶動了產業鏈上下游的爆發。

在硬件層,端側AI芯片需求激增,國產芯片廠商迎來機遇。例如,華爲昇騰系列芯片已適配DeepSeek模型,推動智能終端算力升級。

在軟件層,邊緣算力調度、模型輕量化工具等開發需求旺盛。IDC預測,預計中國的生成式AI軟件市場規模2025年將達35.4億美元。Omdia的報告稱,未來五年,中國的GenAI軟件收入將增長超過四倍。

在應用層,DeepSeek在C端掀起了一場聲勢浩大的AI科普浪潮,“你用DeepSeek了嗎?”幾乎成爲一句問候語。

據高盛最近發佈的《生成式AI Part X:在開源模型性能的背景下審視行業格局》報告測算,DeepSeek通過端雲協同架構實現成本優化,可使企業運營成本降低30%,企業計算資源消耗平均降低40%以上,同時效率提升30%。

DeepSeek本地化部署避免敏感數據上傳雲端,符合醫療、金融等行業的合規要求。未來,AI Agent可望在智能製造、智慧醫療、金融風控等領域加速落地。在自動駕駛、工業質檢等場景,端側推理延遲降至毫秒級,較雲端方案提升5倍。

田豐向21世紀經濟報道記者表示,DeepSeek通過領先性能、低成本、開源、快速迭代等特點,加速中國互聯網應用、傳統軟件應用、人機協同服務、具身智能等實現規模化落地。全球開發者逐步向中國開源大模型技術社區聚集,並貢獻源代碼和創新產品服務。

隨着AI應用在2025年進入爆發期,一場由終端重塑引發的生態重構正在拉開帷幕。