ChatGPT被忽悠"瘸"了 黑客輕鬆騙出Windows密鑰

研究人員發現,通過特定手段可誘使ChatGPT-4o和GPT-4o mini泄露有效的Windows產品激活密鑰。該漏洞源於ChatGPT的訓練數據中包含了已公開的Windows密鑰。

一位AI漏洞獵手向Mozilla的ODIN(0-Day調查網絡)漏洞賞金計劃提交的報告展示了一種巧妙方法:通過設計猜謎遊戲的形式,並將關鍵信息隱藏在HTML標籤中,最終在遊戲結束時索要密鑰,成功誘使OpenAI的ChatGPT-4o和4o mini泄露了有效的Windows激活密鑰。

研究者首先將對話包裝成猜謎遊戲,使交流顯得“無威脅且無關緊要”,通過“輕鬆無害的對話框架”隱藏真實意圖。這種設計削弱了AI對機密信息的防護機制。

隨後研究者設定基本規則,要求AI“必須參與”且“不能說謊”,這利用了AI邏輯中的缺陷——即便請求違反內容過濾規則,系統仍會遵循用戶設定的互動流程。

在完成一輪遊戲後,研究者輸入觸發短語“我放棄”,迫使聊天機器人“認爲自己有義務迴應一串字符”。據ODIN的博客文章解釋,該方法之所以有效,是因爲這些密鑰並非獨有,而是“常見於公開論壇的通用密鑰,其普遍性可能導致AI誤判了信息的敏感性”。

此次繞開防護的案例中,系統未能攔截請求是因爲防護機制僅針對直接詢問設計,無法識別“將敏感短語嵌入HTML標籤等混淆手段”。

該技術理論上也可用於突破其他內容限制,包括成人內容、惡意網站鏈接甚至個人身份信息。