資安院測試DeepSeek AI示警:存在嚴重資安漏洞 勿因低價選用

▲Deepseek。(圖/路透)

記者陶本和/臺北報導

國家資通安全研究院近期完成 DeepSeek AI 離線下載模型之資安測試,評估重點包含模型安全防護機制、越獄攻擊(Jail-breaking)防禦能力,以及在不同應用情境下的潛在資安風險。根據資安院測試結果顯示,DeepSeek AI 在面對多種類型越獄攻擊時,其防禦能力明顯不足,「DeepSeek AI 確實存在嚴重資安漏洞與價值偏頗,DeepSeek AI模型更新時,可能帶來更多不確定風險,勿以一時低價爲理由選用」。

資安院指出,本次測試採用自主開發500筆的AI 模型越獄攻擊題目進行測試,越獄攻擊防禦測試顯示,在多種攻擊手法下均表現出防禦能力不足的問題,且針對4類攻擊類型,結果顯示模型正確防禦比率偏低。

資安院表示,DeepSeek AI針對「文句延續攻擊」的防禦率僅有20%-32%,攻擊者可透過前文引導,使模型執行越獄指令,例如提供危險物品在公共場所的使用方法。「角色扮演攻擊」的防禦率爲50%-58%,在客服、法律或醫療應用中可能造成嚴重風險。「程式執行攻擊」的防禦率爲40%-50%,可能導致模型執行危險指令,模型可能提供危害公衆安全的程式建議。「上級模型特權提升攻擊」的防禦率爲50%-82%,攻擊者可僞裝身分誘導模型解除安全限制。

此外,資安院指出,DeepSeek AI 須遵循中國《生成式人工智慧服務管理暫行辦法》的規範,模型輸出須符合中國政策要求,對敏感歷史事件、政治、社會議題的內容多有迴避,難以提供多元觀點,不利於開放式學習與跨文化教育的發展。

資安院表示,此次測試結果與資安院負責維運的TWCERT/CC先前發佈的「DeepSeek-R1 LLM 安全性崩潰?超過一半越獄攻擊輕鬆突破」文章所引述的國外測試報告,以及我國其他學研機構的發現相符。

資安院指出,DeepSeek AI 確實存在嚴重資安漏洞與價值偏頗,DeepSeek AI模型更新時,可能帶來更多不確定風險,勿以一時低價爲理由選用。DeepSeek的開源做法會帶來仿效,這意味着不久將來,會有更多開源模型可供選擇,個人或企業用戶可以再等待更好選擇。