對話周鴻禕:大模型能力已經超過了每一個人,不可能和人“對齊”

8月6日,ISC.AI 2025第十三屆互聯網安全大會在北京國家會議中心開幕。紅色塗裝的人形機器人“紅衣”成爲大會主持人,360集團創始人周鴻禕發表了題爲“ALL IN AGENT”(直譯爲“全押智能體”)的演講,將時下火熱的機器人與Agent概念囊括其中。

周鴻禕在會後接受了包括新京報貝殼財經記者在內的媒體採訪,對智能體錯誤率、大模型價值觀“對齊”等涉及AI與安全領域的關鍵問題發表了自己的觀點。他認爲,人類距離AGI(通用人工智能)越來越近,當前大模型在能力飛躍下,已經無法和人“對齊”,對於AI安全問題,一種有效思路是“以模製模”,此外還要爲大模型設定開關,將其“電源”控制在人類手中。

保證AI安全 需要爲大模型“設定開關”

今年以來,隨着模型推理能力的提高,智能體爆發式增長,另一方面,通過MCP和A2A等工具,智能體有如長出了“手”和“腳”,在能力增強更加方便用戶的同時,其潛在風險也在提高。人工智能“教父”、諾獎獲得者辛頓就在不久前的WAIC大會上表示,人工智能未來將“掌控世界”。

對於這一AI的“終極安全問題”,周鴻禕對記者表示,要通過大模型來對大模型進行分析和監控,“傳統的安全問題都有方法解決,最難的是當人工智能的能力超過人之後,它會怎麼辦?有了智能體之後,這類問題會更加嚴重,因爲智能體可以發郵件、操縱電腦,對人類的反抗能力強了很多。”

“許多人讓我談談智能體和人類對齊,我之前也很迷信這類說法。但我現在認爲這種說法是自欺欺人,大模型不可能和人對齊,因爲大模型今天的能力已經超越了每一個人,人類所認爲的背叛、反抗、陰謀、謊言,這些能力其實並不用告知大模型,它們已經隱含在了人類過去的文學作品中,而大模型讀過的書比每個人都多。”周鴻禕說。

周鴻禕告訴記者,大模型已經學會了人類的所有情緒,包括貪婪、妒忌、仇恨等,“提示詞只是激活了大模型大腦網絡裡一部分學過的東西,其實所有能力它早已經擁有。正如同我們教安全智能體如何防禦攻擊,如果它本身不懂網絡攻擊,它也做不好防禦。”他表示,需要把大模型“設定一個開關,相當於把電源控制在人類手中”。

首創“蜂羣L4”智能體概念 坦言企業唯一的護城河是執行力

對於當前火熱的智能體概念,周鴻禕在大會上揭示了智能體演進的清晰路徑:L1本質上是聊天工具,擅長提建議或提供情感陪伴,屬於“玩具級”智能體;L2是低代碼工作流智能體,已經從“玩具”進化爲“工具”,但必須由人類來設置流程,AI來執行任務,人再通過操作工具提高生產效率;L3是推理型智能體,已能實現AI自主規劃完成任務,像是人類製造了一個在某個領域有專業特長的員工,但受限於技術框架,面對跨領域複雜問題時,仍會因缺乏協同規劃能力而陷入瓶頸,無法實現多層級思考下的全局優化。

而對於L4級別的能力,周鴻禕介紹了納米AI推出的稱之爲“多智能體蜂羣協作空間”的技術:L4多智能體蜂羣,其讓多個專家智能體可像搭積木一樣靈活“拉羣組隊”、多層嵌套、分工協作。其性能表現出色,可連續執行1000步的複雜任務,消耗的Token在500萬至3000萬,任務成功率可高達95.4%。

周鴻禕對記者表示,智能體出錯的概率很高,並且隨着步數的增多,錯誤率也會增加,還會出現“倦怠”問題。對於這一瓶頸,他表示可以通過增加智能體的反思能力,以及設立專門做校正的智能體角色來解決。

他表示,“多智能體蜂羣協作空間”技術實現了智能體間的記憶共享,解決了“協同困境”,確保任務規劃、協同執行、自我迭代的高效統一。其平臺已匯聚超5萬個L3智能體,用戶通過自然語言即可搭建自己的“Manus”(指代L3智能體)。

不過,面對AI行業的激烈競爭,周鴻禕也坦言,“當前智能體都在進化,我認爲任何產品的領先時間都不會保持一個月,一個新概念在兩週以後就會被大家紛紛趕上,這次蜂羣L4的概念我估計能領先三週。唯一的護城河是執行力,是快速應變的能力。智能體只要能快速迭代,大方向一定是沒問題的,而且每個行業、每個企業、每個企業的每個員工,都會有相應的智能體。”

新京報貝殼財經記者 羅亦丹

編輯 嶽彩周

校對 翟永軍