ChatGPT AI 代理好用但衍生資安問題 趨勢科技點出四大風險

全球網路資安領導廠商趨勢科技發佈最新研究報告,針對OpenAI推出的新ChatGPT AI代理進行功能分析,將新功能與過去的AI助理進行比較,指出其自主性的轉變帶四大主要資安風險。

ChatGPT AI代理象徵着從單純對話的AI助理,到不再僅止於顧問角色、而是在使用者的數位生活中「主動採取行動」的巨大轉變。它可以編寫程式碼、發送電子郵件、存取行事曆、預訂旅遊行程,甚至獨自瀏覽網路。

趨勢科技資深技術顧問簡勝財表示,最新的ChatGPT AI代理不再只是會回答問題的AI,而是「代表使用者行動的AI」,將自動化、推理和自主性能力以前所未有的規模結合在一起,徹底改變行爲模式。隨之而來的風險包括提示詞注入、同意疲勞到跨應用程式的攻擊手法等,也使得今日的資安攻擊面呈現出更具個人化、更深層嵌入以及更爲迫切的態勢。

趨勢科技統整四項主要風險,包括首先是自主執行增加惡意操縱風險,新的ChatGPT AI代理可以在最少人工監督下運行。如果被攻擊者利用,它可能會在人類無法察覺的情況下在現實世界採取行動,如:將電子郵件寄給非預期的收件者,或刪除重要資料。

其次是加劇提示詞注入的資安風險,攻擊者可在網頁或應用程式中植入隱藏指令,當AI代理進行存取時,便可能觸發惡意行爲,對使用者而言往往是難以預見的風險。

AI代理也因對使用者瞭解深入而引發隱私問題,ChatGPT AI代理持續學習並偵測使用者的行爲和偏好。如遭遇攻擊,可能會引發敏感資訊和隱私外泄問題,包括行事曆上的私人行程、平臺上的帳戶資訊等。

第四大風險是同意疲勞和過度信任,因使用者可能對批准相關的請求感到麻木,因而盲目授權AI執行關鍵的操作。這樣的情況在企業裡、常需要處理許多敏感資料工作的環境來說是個嚴重問題。

趨勢科技指出,ChatGPT AI代理能明顯推升生產力,但當AI代理整合至工作行事曆、電子郵件及企業軟體時,也衍生出涵蓋供應鏈、身分安全與內部威脅的多層次風險。趨勢科技於2024年發表的Digital Assistant Framework顯示,即便在自主性、使用者建模與跨系統整合方面僅有漸進式提升,也可能對資安風險造成指數級攀升。

趨勢科技也建議,對任何跨系統作業的AI落實嚴格的權限限制,並且隨時監控提示詞操縱和異常任務行爲的跡象,應教育使用者瞭解AI自主性的侷限,並導入人類檢查環節於系統流程中,也要採用AI攻擊面管理策略,作爲整體風險防護措施的一環。