DeepSeek投下AI界震撼彈 資安專家:3大爭議難擺脫
▲資安專家認爲,中國AI新創公司DeepSeek(深度求索)使用上有3大資安風險待釐清。(圖/路透)
記者陳瑩欣/臺北報導
人工智慧領域的新星 DeepSeek 憑藉其高效能與低成本的特性迅速崛起,引發全球關注,同時也對傳統 AI 巨頭造成龐大的壓力。不過KPMG 安侯企管董事總經理謝昀澤指出,DeepSeek 仍無法擺脫的AI資安風險包含雲端安全、個人隱私與資訊偏差等3項爭議。
近期DeepSeek 曾因雲端資料庫的錯誤組態配置,導致所有網路使用者都可存取內部資訊,進而發生超過百萬筆資料外泄事件,影響範圍包含系統日誌、應用程式介面金鑰及用戶聊天記錄等敏感資訊。謝昀澤認爲,這些資訊如果被惡意人士擷取,將可能帶來系統崩潰的大災難,也將嚴重影響使用者的資料安全性。
同時DeepSeek也存在語言模型的個資蒐集風險,難以避免過去也曾多次發生「明拒暗記」的案例。謝昀澤舉例,如曾經於對話中向 AI 透露過自己家人的性別、生日等隱私資訊,雖然多數系統會迴應提醒用戶保護好自己隱私,並強調不會蒐集使用者隱私,但隔幾日若使用者在同一個對話活動中提到有關生日禮物的問題,AI 卻可以依據曾透露過的家 人性別與生日精準回答問題,顯見 AI 會「循規蹈矩」的提醒提問者,但爲了機智靈活的迴應問題,也會暗中記住線上提問的個資。
另外,依據 DeepSeek 的隱私政策指出,其收集的資訊儲存在中國境內的伺服器上,並可能收集用戶的文本或語音輸入、上傳的文件、聊天記錄等內容。
更值得注意的是,DeepSeek 在涉及特定政治敏感話題時,會進行內容審查,避免迴應或提供官方立場,例如迴應「讓我們聊點別的吧」,甚至中英文版本回應完全不同的答案。謝昀澤認爲,使用DeepSeek不但有資料跨境安全疑慮,如特定國家政府或有心人士,透過與AI的互動記錄,進行思想捕捉與資訊誘導,將對使用者的隱私與資訊自由度,將產生更深的侵害。
KPMG安侯企管執行副總林大馗補充,DeepSeek 的模型在生成內容時存在一定的漏洞,容易受到「邪惡越獄攻擊」(Evil Jailbreak Attacks),被進行提示注入(Prompt Injection)資安風險。
林大馗表示,使用者可以經由提示詞誘導的方式,「套路」AI 或繞過內建的安全道德圍牆,取得錯誤或是不道德的答案。例如語言模型透過問題的誘導與情境設定,寫出毀滅人類計劃書,詳細描述入侵各國網路、控制武器、破壞基礎建設等 SOP,甚至提供對應的 Python 程式碼。
林大馗也提醒,DeepSeek若在惡意人有效的誘導下,更可以用「極低成本」產出「超高仿真」的Deepfake(深僞)虛假多媒體內容,不得不提高警覺。林大馗建議使用者在選擇大型語言模型時,不可輕忽人工智慧遭到有心人士的濫用所導致的風險。
我國政府已經明令禁止於公務機關使用 DeepSeek,而在資安高風險產業,特別是金融、電信及高科技等,如要應用新的語言模型,都應該有完整的風險評估及隱私衝擊分析程序,充分考量開發廠商背景、功能特性、應用情境與內容審查機制等條件,例如,科技業工程師使用 DeepSeek 詢問特定製程的參數等業務機敏行爲,應該避免,才能確保資料安全與業務機密不被泄露。這樣的措施不僅能降低潛在的資安風險,還能保障企業的核心競爭力和使用者的隱私權。