全球首個AI智能體安全測試標準發佈
新京報貝殼財經訊(記者羅亦丹)記者7月14日獲悉,世界數字科學院(WDTA)已在聯合國日內瓦總部正式發佈AI STR系列新標準《AI智能體運行安全測試標準》,標準由螞蟻集團、清華大學、中國電信牽頭,聯合普華永道、新加坡南洋理工大學、美國聖路易斯華盛頓大學等二十餘家國內外機構、企業及高校共同編制,爲全球首個單智能體運行安全測試標準。
該標準針對智能體跨越“語言牆”所帶來的“行爲”風險,首次將輸入輸出、大模型、RAG、記憶和工具五個關鍵鏈路與運行環境對應起來,構建了全鏈路風險分析框架;同時,細分了智能體風險類型,完善並創新提出了模型檢測、網絡通信分析和工具模糊測試等測試方法,彌補了智能體安全測試技術標準的空白。
標準在AI for Good全球峰會期間由聯合國社會發展研究所(UNRISD)與世界數字科學院(WDTA)聯合主辦的“數字技術與人工智能社會影響全球諮詢會”上發佈。
2025年,被稱爲“智能體元年”。AI智能體憑藉着深度思考、自主規劃、做出決策並深度執行的能力,使得AI在發展路徑上實現一次範式突變:從“我說AI答”到“我說AI做”,並被逐漸應用到各類商業場景中。
然而,技術突破伴隨着不容忽視的安全隱憂。最新調研顯示,超過70%的智能體從業者擔憂AI幻覺與錯誤決策、數據泄露等問題,因爲AI生成的內容往往包含事實錯誤,或者對指令產生誤解,其中超半數受訪者表示,所在企業尚未設立明確的智能體安全負責人。
“面對AI相關技術的快速演進,我們必須正視‘科林格里奇困境’:一旦新技術深植社會,風險治理的代價將成倍上升。”WDTA執行理事長李雨航強調,“AI STR系列標準正是試圖在這一臨界點前建立清晰、可執行的安全標準和測評、認證體系,將倫理與責任嵌入AI的全生命週期之中,從而確保技術發展服務於人類的長期利益。”
峰會上,螞蟻集團大模型數據安全總監楊小芳表示,當前AI技術應用加速落地,但單智能體的安全風險缺乏統一的全鏈路安全測試標準,導致潛在的問題難以被量化和規避,單智能體標準的制定是AI治理的“最小可行單元”,而多智能體治理是未來“摩天大樓”的核心結構,下一步行業應從單點逐步向多智能體治理生態共建突破。
與其他國際標準不同,AI STR不僅關注風險識別和風險分級,更提供全流程管理方案,即從數據治理到模型落地,配套具體測試工具和認證流程,助力企業提升AI應用的安全性與可信度。
該標準不僅提供了一套可行可靠的智能體安全基準,也爲全球AI智能體生態的安全、可信和可持續發展增加了有益的探索。目前,部分標準的測評與認證已在金融、醫療等領域落地應用。
此前,WDTA已發佈3項AI STR標準,包括“生成式人工智能應用安全測試標準”,“大語言模型安全測試方法”和“大模型供應鏈安全要求”,由OpenAI、螞蟻集團、科大訊飛、谷歌、微軟、英偉達、百度、騰訊等數十家單位的多名專家學者共同參與。
編輯 楊娟娟
校對 楊利