亞洲首創!衛福部啓動「負責任AI執行中心」
衛福部今日(21)辦理「2025年衛福部負責任AI執行中心成果發表會」。(李念庭攝)
衛福部次長呂建德、衛福部資訊處處長李建璋接受媒體聯訪。(李念庭攝)
邁入智慧醫療時代,爲促進人工智慧(AI)技術應用於醫療領域,衛福部去年9月28日啓動「負責任AI執行中心」補助計劃,全國共10家醫療機構參與,使用人次已達約23萬,更是全亞洲首個AI執行中心,將逐步建構安全、可信賴的AI醫療環境,有望成爲國際智慧醫療標竿。
衛福部今日(21)辦理「2025年衛福部負責任AI執行中心成果發表會」,衛福部次長呂建德表示,AI很方便,但要落地實施,必須克服倫理、治理2大議題,負責任AI執行中心的成立,透過導入制度化管理機制,迴應技術不透明與決策偏差2大疑慮,同時也是繼美國、歐盟後,全亞洲第一個AI醫療落實相關單位。
衛福部資訊處處長李建璋表示,AI通過認證後,如何「監管」成爲最大挑戰。若缺乏監管,會面臨不自主、不當責、不安全、不透明、不隱私、不公平、不永續等7大倫理危機。AI可能取代醫師決策,導致責任歸屬模糊;AI決策難解釋,可能出現不透明狀況;大量個資在AI應用過程中,也可能面臨外泄危機。
爲了推動AI法源落地行動,衛福部去年首創負責任AI中心,建立全國、全亞洲第一個醫療場域負責任AI實施細則,透過「資安隱私保護」、「9大透明性原則與可解釋性分析」、「AI生命週期管理」3大作法,對應7大倫理原則,實現AI落地策略和運作。
李建璋解釋,未來越來越多醫院使用AI,資安疑慮會成爲常態性事件,醫院須成立委員會並制定辦法,主動防禦、系統備份、去辨識化等,確保大量個資不外泄;透明性原則及可解釋性,能幫助醫師瞭解AI判斷的臨牀依據,讓醫師自主決定;由於資訊會隨時間、老化、疾病嚴重度等影響,AI也需要生命週期管理,每6~12個月重新驗證一次。
李建璋說明,目前全臺推動超過半年,有10家醫療院所爲示範醫院,至少導入10項負責任AI落地應用,使用人次達22萬9086,建立30條管理辦法與10個組織章程,並建立負責任AI中心官方網站,建立可複製的組織推動模式、標準化文件、可落地的流程,以永續執行。