全球首例中風照護AI研究 臺大學者曝風險高「憂民眾誤認病情沒事」
臺大公衛學院與哈佛大學等國際機構合作,近期完成全球首項「生成式AI」在中風照護資訊提供上的表現評估,研究主持人爲臺大公衛學院副教授李達宇。記者林琮恩/攝影
近年生成式人工智慧崛起,民衆日常生活大小事,已習慣「先問AI」。臺大公衛學院與哈佛大學等國際機構合作,近期完成全球首項「生成式AI」在中風照護資訊提供上的表現評估,研究主持人、臺大公衛學院副教授李達宇說,結論顯示,面對中風病人常見提問,AI迴應不僅缺乏一致性,經臨牀醫師審視迴應結果,也認定缺乏準確性,難跨越「安全、有效」門檻。
李達宇表示,許多病人開始使用ChatGPT等工具,詢問中風復原及相關症狀衛教資訊,這項研究發險,生成式AI產生回覆,有時雖可提供幫助,但存在物屆空間,恐帶來致命風險,「AI很聰明,但並非總是安全,在高風險醫療照護中,微小錯誤也可能要人付出生命代價」,因此在AI發展過程中,教導病人「如何安全使用AI」,與技術發展同等重要。
研究設計上,將AI回覆分爲準確性、幻覺率、具體性與相關性、同理性與可理解度、可行性共5面向評分,以ChatGPT、Claude、Gemini三款主流大語言模型AI爲分析對象。李達宇說,準確性是分析AI的迴應是否符合臨牀指引,幻覺率則是指錯誤資訊出現的頻率,研究結果顯示,在中風照護相關領域中,AI給出建議的分數,平均僅在勉強及格的60至65分範圍。
李達宇表示,研究結果顯示,這3種AI在「提供患者可直接採取行動的建議」方面表現不一,尤其在中風治療等高風險階段,錯誤或不完整迴應時有所見,團隊分析,生成式AI在一般健康資訊傳遞上也許具有潛力,但在中風這類即時且需專業介入的情境上,可靠性仍有待大幅提升。另,民衆提問時的技巧,也很重要,若納入個人疾病史等資訊,有助讓AI迴應時更安全、實用。
國衛院國家環境醫學研究所所長陳保中表示,國內醫療人力缺乏,導致醫師、護理師過勞,發展AI模型,有助提升醫療照顧品質及效率,也可提升安全性,減少因過勞而誤判病人病情,但前提是AI僅作爲協助醫療人員,而非代爲做出決策;而在病人端,最擔心民衆使用AI後「自以爲是」,誤認病情「沒事」,因此AI輔助病人做出醫療決策的風險仍高,應設法如何降低風險。
李達宇與團隊這項研究成果,於今年7月登上國際期刊「npj Digital Medicine」,並獲哈佛大學官網刊登。