近半公司不瞭解員工在用AI:AI辦公普及加速,企業安全監管仍然滯後

21世紀經濟報道記者肖瀟 北京報道

從AI聊天機器人,到今年迅速躥紅的AI智能體,人工智能正被視爲提升生產力的關鍵引擎,快速滲透到各類辦公場景中。但企業真的準備好了嗎?思科最新發布的2025年《全球網絡安全就緒指數》給出了一份略顯冷靜的答卷:可能還沒有。

在企業安全中,AI的“雙刃劍”屬性表現得尤爲明顯。一方面,越來越多將AI應用在安全防護策略裡:報告指出,大多數國內企業在安全運營中已初步使用AI,90%以上的受訪者把生成式AI用到了威脅情報收集、威脅檢測的環節中;

另一方面,企業也面臨更復雜的AI安全風險。報告數據顯示,全球86%的企業在過去一年裡經歷了至少一次AI相關的安全事件,放在中國大陸市場環境中,這一數字是92%。

《全球網絡安全就緒指數》特別提及了“員工使用AI”帶來的不確定性和監管難題。幾乎一半的國內員工正在使用公司批准的AI工具,但同時,也有約20%的員工能夠不受限制地訪問ChatGPT等公網AI工具——而有46%的企業對這一使用情況毫不知情。

工作中使用AI,可能無意中將企業的商業機密或用戶數據暴露給外部AI模型。更嚴重的情況是,生成內容中可能被嵌入惡意指令。這類員工繞過公司合規體系、自行下載或使用AI工具的行爲,被稱爲“影子AI(Shadow AI)”。

《全球網絡安全就緒指數》指出,由於企業安全系統難以覆蓋所有AI使用路徑,大多數安全團隊甚至無法追蹤員工在生成式AI工具中的輸入內容,更無法及時發現是否有敏感信息泄露、數據濫用或異常行爲,成了企業AI管理中的一大盲區。整體來看,只有48%的國內受訪者表示能夠充分理解AI帶來的安全威脅。不足一半的企業認爲自家安全團隊真正瞭解攻擊者是如何利用AI發動攻擊的。

在跟21記者交流的過程中,報告發布方思科公司的安全事業部總經理卜憲錄介紹,該報告是由第三方進行的雙盲調查,樣本來自全球30個市場、8000多名私營企業的安全負責人,已經進行到第三年。

卜憲錄特別指出,近兩年來網絡安全最大的變化之一,就是生成式AI的迅猛普及。“一方面,員工對AI的認知和理解還不夠;另一方面,企業層面還處於‘AI賦能’的初級階段,但與之配套的安全保障能力還沒有跟上。”

中國市場在AI合規層面並不缺乏法規參照,比如《數據安全法》《個人信息保護法》以及2023年《生成式人工智能服務暫行管理辦法》等都已出臺。據卜憲錄的瞭解,國內企業普遍最關注兩個問題:第一就是AI的合規性,第二是業務連續性——尤其擔心網絡攻擊、業務中斷帶來的影響。但挑戰在於,AI系統往往分散部署在多個業務部門之間,涉及的數據鏈條複雜,使得統一管理難度加大。

針對企業如何系統性加強AI安全防護,卜憲錄給出了一個“三步走”的路線圖:第一步是“發現”,明確公司內部網絡中,存在哪些AI應用?包括員工是否使用了未經授權的AI工具;第二步是“檢測”:識別這些AI系統可能存在的漏洞、風險點;第三步是“防護”:構建系統的安全機制,重點應對AI帶來的新型攻擊手法,比如提示詞攻擊、幻覺內容生成、敏感數據在對話中被無意泄露等。