阿里開源千問3模型 成本僅需DeepSeek-R1三分之一
21世紀經濟報道記者 陶力 上海報道
4月29日凌晨,阿里巴巴開源新一代通義千問模型Qwen3(簡稱千問3),參數量僅爲DeepSeek-R1的1/3,成本大幅下降,性能全面超越R1、OpenAI-o1等全球頂尖模型。
千問3是國內首個“混合推理模型”,“快思考”與“慢思考”集成進同一個模型,對簡單需求可低算力“秒回”答案,對複雜問題可多步驟“深度思考”,大大節省算力消耗。
據瞭解,千問3採用混合專家(MoE)架構,總參數量235B,激活僅需22B。千問3預訓練數據量達36T ,並在後訓練階段多輪強化學習,將非思考模式無縫整合到思考模型中。
千問3在推理、指令遵循、工具調用、多語言能力等方面均大幅增強,即創下所有國產模型及全球開源模型的性能新高:在奧數水平的AIME25測評中,千問3斬獲81.5分,刷新開源紀錄;在考察代碼能力的LiveCodeBench評測中,千問3突破70分大關,表現甚至超過Grok3;在評估模型人類偏好對齊的ArenaHard測評中,千問3以95.6分超越OpenAI-o1及DeepSeek-R1。性能大幅提升的同時,千問3的部署成本還大幅下降,僅需4張H20即可部署千問3滿血版,顯存佔用僅爲性能相近模型的三分之一。
(千問3性能圖)
此外,千問3還提供了豐富的模型版本,包含2款30B、235B的MoE模型,以及0.6B、1.7B、4B、8B、14B、32B等6款密集模型,每款模型均斬獲同尺寸開源模型SOTA(最佳性能):千問3的30B參數MoE模型實現了10倍以上的模型性能槓桿提升,僅激活3B就能媲美上代Qwen2.5-32B模型性能;千問3的稠密模型性能繼續突破,一半的參數量可實現同樣的高性能,如32B版本的千問3模型可跨級超越Qwen2.5-72B性能。
同時,所有千問3模型都是混合推理模型,API可按需設置“思考預算”(即預期最大深度思考的tokens數量),進行不同程度的思考,靈活滿足AI應用和不同場景對性能和成本的多樣需求。
比如,4B模型是手機端的絕佳尺寸;8B可在電腦和汽車端側絲滑部署應用;32B最受企業大規模部署歡迎,有條件的開發者也可輕鬆上手。
千問3爲即將到來的智能體Agent和大模型應用爆發提供了更好的支持。
在評估模型Agent能力的BFCL評測中,千問3創下70.8的新高,超越Gemini2.5-Pro、OpenAI-o1等頂尖模型,將大幅降低Agent調用工具的門檻。
同時,千問3原生支持MCP協議,並具備強大的工具調用(function calling)能力,結合封裝了工具調用模板和工具調用解析器的Qwen-Agent 框架,將大大降低編碼複雜性,實現高效的手機及電腦Agent操作等任務。
據瞭解,千問3系列模型依舊採用寬鬆的Apache2.0協議開源,並首次支持119多種語言,全球開發者、研究機構和企業均可免費在魔搭社區、HuggingFace等平臺下載模型並商用,也可以通過阿里雲百鍊調用千問3的API服務。
個人用戶可立即通過通義APP直接體驗千問3,夸克也即將全線接入千問3。
據悉,阿里通義已開源200餘個模型,全球下載量超3億次,千問衍生模型數超10萬個,已超越美國Llama。