2025科技論壇/資策會執行長範俊逸:設資安防線 強化信任力
資策會執行長範俊逸。記者陳正興/攝影
資策會執行長範俊逸昨(27)日表示,AI產業正開創龐大商機,大衆與企業對於AI的資料使用、隱私及準確性的信任問題卻日益加劇,成爲AI應用廣泛普及的關鍵瓶頸。AI發展必須更穩、更踏實,唯有負責任地發展AI,同步考量「AI信任力」,才能讓AI真正融入企業與社會的DNA。
範俊逸昨天出席2025科技論壇「開啓AI新紀元」,以「AI信任力 應用普及的最後一哩路」爲題發表主題演講。
他引述多項數據,說明AI應用的驚人成長動能,例如在程式碼編輯器領域,新創公司Cursor AI在25個月內營收暴增300倍;醫療領域的Abridge AI醫療筆記助手,僅五個月營收就成長2.3倍;AlphaSense市場情報平臺則在二年內讓營收成長三倍,這些案例均證明AI洞察正成爲企業決策的依據。
然而,AI快速發展也伴隨信任危機。範俊逸引用國際調查數據指出,高達59%的民衆對資料被用來訓練AI模型感到不安,而67%認爲社會過度依賴科技產品。對企業而言,「AI出錯」是拖慢生成式AI導入的主因,且高達63%的組織甚至未建立部署前的資安評估流程。
他並舉出多個全球案例,如Google聊天機器人Bard因回答錯誤,導致母公司Alphabet市值大跌、Clearview AI未經授權蒐集人臉資料遭多國裁罰,以及ChatGPT用戶私密對話外流事件,在在顯示信任基礎的脆弱性。
範俊逸強調,當前已是「AI對AI」的時代,AI未來將成爲攻擊與防禦主體。因此,企業需建立全面的AI資安防護網,涵蓋從模型本身到資料傳輸的各個環節。
他歸納三大關鍵面向來打造可信任AI,包含「高品質的資料」以阻絕資料污染等風險;「具韌性的流程」建議組織參照美國國家標準暨技術研究院(NIST)的AI風險管理框架與ISO 42001等國際標準,將風險管理融入AI生命週期,確保系統穩定與安全;以及最關鍵的「具AI素養的人才」,強調企業應系統化培育「AI知識工作者」,讓AI素養內化爲DNA,才能推動應用落地。
除外部攻擊,AI系統自身內部安全問題同樣不容忽視。範俊逸指出,從供應鏈攻擊到資料污染攻擊,或針對AI模型本身的惡意攻擊,都可能讓AI產生不正確或不值得信賴結果。他以程式碼撰寫爲例,若模型吐出帶有資安漏洞的程式,可能導致弱點擴散。
範俊逸以「信任不是口號」作結,總結AI發展必須「站穩才能走得快」的核心觀點,爲產業加速AI應用佈局提供穩健路徑。