大模型邁向“通才”時代?智譜發佈GLM-4.5

21世紀經濟報道記者 孫燕

大模型正從專用走向通用。

7月28日晚間,智譜發佈新一代旗艦模型GLM-4.5,並在Hugging Face與Model Scope平臺同步開源。

其綜合能力達到開源SOTA級:綜合MMLU Pro、AIME 24、MATH 500等12個基準性能測試的平均分來看,GLM-4.5取得了全球模型第三、國產模型第一、開源模型第一的成績。

而GLM-4.5參數量僅爲DeepSeek-R1的1/2、Kimi-K2的1/3,之所以在多項標準基準測試中表現得更爲出色,是因爲GLM模型具有更高的參數效率。

調用價格方面,GLM-4.5系列的定價也遠低於主流模型:API調用價格低至輸入0.8元/百萬tokens,輸出2元/百萬tokens。

值得一提的是,智譜首款SOTA(state of the art,是指在特定任務中目前表現最好的方法或模型)級原生智能體大模型,原生融合了推理、編碼和智能體能力。

同樣在7月,阿里雲發佈通義千問AI編程大模型Qwen3-Coder,階躍星辰發佈新一代基礎大模型Step 3,均集成了推理、代碼生成、智能體等能力。

民生證券研究指出,當前全球多模態AI正在向“多模態通才”轉變,專家型模型逐漸走向支持多任務的通才和具備任務級協同能力的通才模式。

此前,智譜已經有推理大模型GLM-Z1-Air和GLM-Z1-Flash,代碼大模型CodeGeeX-4,智能體模型AutoGLM等。此次推出的GLM-4.5,首次在單個模型中實現推理、編碼和智能體能力原生融合。

此前在7月初,智譜CEO張鵬在智譜開放平臺產業生態大會上演示大模型編寫PPT、生成小遊戲的能力時,也多次強調“原生”這一關鍵詞。“這完全由模型原生生成,沒有附加其他功能、第三方軟件和工作流。大模型在持續疊加越來越多的能力。”

有業內人士指出,推理能力和智能體能力的融合,會帶來規劃能力更強的智能體;代碼能力和智能體能力本身便高度融合。三種能力的融合,有助於構建一個以模型爲主體的智能體。

“如今大模型的能力越來越多樣化,有文本類的、推理類的、工具類的,還有專門處理代碼任務的,但它們大多都‘偏科’,比如OpenAI的o系列模型最擅長推理,Anthropic的Claude則特別精通代碼。”智譜相關負責人向21世紀經濟報道記者表示,大模型的下一個範式,一定是把各種能力整合到一起,成爲一個‘全優生’,就像人一樣,越來越通用,這纔是實現AGI的必要條件。

其進一步指出,融合能力最大的意義在於讓AI從擅長做一件事變成擅長做多件事,也是讓AI越來越通用、越來越像人,能解決人的更多問題。“OpenAI的GPT-5也是這個方向。”

據測試,GLM-4.5在推理、代碼和智能體能力上均達到開源模型的最高水平,其中推理能力位列開源模型第二。

儘管同時集成推理、代碼、智能體等能力,但阿里Qwen3-Coder側重於代碼任務、階躍星辰Step 3定位爲原生多模態推理模型,智譜GLM-4.5則是專爲智能體應用打造的基礎模型。

GLM-4.5發佈當晚,張鵬在朋友圈表示,“GLM上新!全面進入智能體基座時代!”

智譜對外表示,GLM-4.5首次在單個模型中實現將推理、編碼和智能體能力原生融合,是爲了滿足智能體應用的複雜需求。

在智譜演示的模型原生Agent場景中,GLM-4.5做出了能搜索的搜索引擎、能發彈幕的B站、能發博的微博。此外,GLM-4.5系列還能勝任全棧開發任務,編寫複雜應用、遊戲、交互網頁。

在此背後,是模型原生具備的在前端編寫網站、在後端進行數據庫管理,以及通過工具調用接口支持任意的智能體應用等能力。

前述業內人士指出,智能體包括以Coding(編碼)爲核心的智能體、基於UI(用戶界面)的視覺識別智能體。GLM-4.5屬於前者,比較擅長處理與Coding有關的任務。“如今萬物都可Coding,智能體基座最成熟的應用場景還是接入Coding Agent(編碼智能體)。”

在Agent Coding場景中,通過Claude Code與Claude-4-Sonnet、Kimi-K2、Qwen3-Coder等模型進行對比測試,GLM-4.5相對其他開源模型展現出競爭優勢,特別在工具調用可靠性和任務完成度方面表現突出。儘管GLM-4.5相比Claude-4-Sonnet仍有提升空間,但在大部分場景中可以實現平替的效果。

7月29日,Rokid Glasses、智聯招聘、脈脈、Lovart中國版“星流”、沉浸式翻譯、Flowith等均宣佈即將接入GLM-4.5。

智譜還預告:Vibe coding模式即將推出。該模式由OpenAI聯合創始人Andrej Karpathy提出,其核心思想是通過自然語言提示驅動AI生成代碼,從而減少手動編碼的需求。這意味着,未來開發者只需用自然語言描述需求,AI即可生成相應的代碼。

“AI越來越多地從後臺走向前臺,早期AI能力是藏在後臺的功能模塊,比如說理解一句話、調起一個命令、喚醒一個音像,用戶對它的感知沒有那麼明顯。到後來,出現了類似於ChatGPT的Copilot伴隨式模型,以及智能體應用AI Native的Agent。未來AI會下沉到中間層、底層,像操作系統一樣接管所有的硬件、軟件、數據,你只需要通過跟ALM(大模型操作系統)進行自然語言層面的交互,它就能幫你調度底層能力,完成更多任務。”張鵬在此前的演講中暢想道。