科學人/AI醫生快來了 你的醫療神隊友還是豬隊友?
圖/ChatGPT
人工智慧(Artificial Intelligence, AI)正以難以想像的高速改變着我們的醫療體驗,從流暢的病歷紀錄、分析醫學影像,到輔助診斷與治療,未來去看醫生,輔助診斷甚至主導某些診斷決策的,可能將是擁有大數據、經過深度學習的AI。目前許多美國醫院已經仰賴這些醫療AI工具來輔助診斷和其他任務,畢竟它在某些方面,比如根據照片診斷皮疹,甚至比人類醫生還厲害。
然而,當這股AI浪潮席捲而來,我們在驚歎之餘,也不免好奇:這些聰明的AI工具,真的能取代人類醫生執行臨牀診斷和治療嗎?它們會是我們的醫療神隊友,還是潛藏着未知的風險?如果真的有漏洞,我們還來的及修補或改良它嗎?
近期,一篇發表在《科學公共圖書館.數位健康》(PLOS Digital Health)期刊上的報告,由加拿大多倫多大學的阿布利卜德(Rawan Abulibdeh)、塞季奇(Ervin Sejdić)與美國麻省理工學院的塞利(Leo Anthony Celi)幾位重磅學者共同執筆。這份報告語重心長地指出,美國食品及藥物管理局(U.S. Food and Drug Administration, FDA)對AI醫療產品的審批流程存在嚴重漏洞,導致醫療界正活在一個「安全的假象」中。
「佛系」審批造就AI醫療產品遍地開花
作者們仔細審閱了FDA公開的文件,對其審批流程的透明度與嚴謹性進行了深度檢視。結果發現,雖然已有超過一千種醫療AI產品獲得FDA的「放行」,但其審批標準常常比藥品審批還要寬鬆,只有少數高風險工具纔要求進行臨牀試驗。由於其他國家也常以美國FDA的決策爲標準制定的依據,這樣的「佛系」作風可能會產生全球性的影響。
更頭疼的是,AI的學習能力本身就是一把雙刃劍。它們能在部署後不斷進化學習,這雖然讓AI更聰明,但也可能產生未預期的風險與偏見,而現行的監管框架卻無從招架。
報告特別點出,儘管FDA已意識到這些問題,並陸續推出瞭如「AI/機器學習軟體即醫療設備行動計劃」和「預定變更控制計劃」等措施,試圖加強監管,但成效仍不盡理想。其中,上市後監測(post-market surveillance)的不足尤其令人憂心。許多AI產品在上市後,其性能變化與潛在風險缺乏一致且透明的即時監測,這好比一匹在醫療現場的「脫繮野馬」,隨時可能跑出賽道,最嚴重恐將危及病患的生命安全。
最嚴峻的是關於AI的「演算法偏見」問題。作者指出,若AI的訓練資料若本身帶有偏見或不完整,那麼其產出的建議就可能不公平,從而加劇既有的健康不平等,例如部份AI工具在非白人族羣或女性族羣的預測表現明顯較差,也有研究指出此種跨族羣偏差正是目前臨牀AI應用的重大隱憂。雖然FDA也開始積極關注並投入研究AI偏見的問題,但這些努力目前仍停留在非約束性的軟性法規層面,缺乏強制性的執行標準,使企業在執行上仍有不少操作空間。
專家呼籲納入更多醫療體系參與者
在當今美國聯邦政府種種縮小AI監管的跡象中,這份報告尤其及時。報告共同作者塞利直言不諱地說:「我們必須要有安全措施,單靠FDA來制定這些措施既不現實,甚至可能不可能。」他表示,由於絕大多數醫院和診所沒有資源聘請AI團隊來進行在地化測試,許多醫院只是直接購買AI工具就直接使用,而沒有進行在地驗證,這簡直成了「災難的配方」。
美國史丹佛大學的健康法研究員梅洛(Michelle Mello)也贊同本報告,認爲FDA本身缺乏強制醫院在產品批准後進行測試的權力。她提議,聯邦醫療保險及醫療補助服務中心(Centers for Medicare & Medicaid Services)或許能扮演更積極的角色,透過改變支付條件來要求醫療機構進行更嚴格的AI工具評估,尤其該機構近期並未受到聯邦預算削減的影響。
美國洛杉磯錫達斯–西奈醫學中心的心臟科醫師歐陽大衛(David Ouyang)則把目光投向了保險公司。他觀察到,許多獲得FDA批准的AI工具之所以未能普及,是因爲保險公司不願承保。他幽默地說:「保險公司要求的證據標準其實比FDA的更高,因此,面對AI濫用的風險還有其他的『防護措施』。」
AI醫療的未來雖然充滿潛力且令人期盼,但要確保它能「爲人所用,而非爲害」,還需要多方合力,才能共同打造一個既創新又安全的智慧醫療生態系。這場AI醫療的「信任遊戲」,纔剛剛開始呢!
(本文出自2025.06.18《科學人》網站,未經同意禁止轉載。)