找AI諮商風險大

AI心理輔助工具成爲新興療法,但專家憂心隱私泄露與情感連結缺失。圖/美聯社

新聞提要■AI心理輔助工具成爲新興療法,但專家憂心隱私泄露與情感連結缺失。

精句選粹■As mental health systems come under strain, some are turning to AI chatbots for support.

由於心理健康資源日漸不足,北美有愈來愈多人轉向AI聊天機器人尋求心理輔助,但專家警告這類新工具雖帶來便利與希望,卻潛藏隱私外泄、情感連結及專業資格等風險。

加拿大魁北克的AI顧問寇特(Pierre Cote)多年飽受創傷後壓力症候羣(PTSD)與憂鬱症困擾,長時間等待公共心理治療卻無法獲得協助,最終自行開發名爲「DrEllis.ai」的AI心理輔助工具。

無法取代真人情感

寇特表示:「它救了我一命。」他於2023年利用公開大型語言模型,加上數千頁臨牀心理與治療文獻,打造出DrEllis.ai的「專業大腦」。DrEllis.ai全天候在線,模擬情緒互動,爲無法即時取得專業幫助的人帶來慰藉。

美國創業家惠特默(Anson Whitmer)也見證AI心理輔助的潛力。他在失去兩位親人後創辦Mental和Mentla兩個AI心理平臺,強調這些平臺不是提供簡單的壓力紓解建議,而是試圖深入理解使用者的性格與行爲模式,與傳統心理治療師的做法相似。惠特默表示:「到了2026年,我們的AI心理輔導在許多層面甚至可能超越真人。」他強調AI不會取代人類心理師,而是改變彼此的角色分工。

然而,並非所有專業人士都認同這樣的看法。都柏林城市大學心理治療講師穆利根(Dr. Nigel Mulligan)表示:「人與人之間的連結,纔是心理治療的根本。」他認爲AI雖能模擬對話,卻缺乏真正的情感細膩度、直覺反應與同理心,無法處理自殺、自傷等高風險危機。

穆利根認爲即使是真人治療師,也需定期接受督導與自我反思,AI系統目前無法提供這層保障。況且,AI全天候服務的優勢未必全是好事,因爲「有時等待是必要的」,才能讓人有時間處理內心的情緒。

慎防心理秘密外泄

除了情感層面的限制,個資安全也是大問題。倫敦國王學院人工智慧與社會學教授戴夫林(Kate Devlin)提醒,使用者在與AI分享心事時,可能面臨隱私外泄風險。多數AI聊天平臺不受醫療保密法規約束,也缺乏監管透明度。她表示:「我最擔心的是,人們把秘密告訴大科技公司,卻失去對自己資料的控制權。」

目前,AI心理輔助工具的發展速度遠超過監管進度。去年美國伊利諾州效法內華達州和猶他州,限制心理健康服務使用AI,目的是防止未經認證的AI對青少年造成誤導與傷害。美國心理學會也呼籲聯邦監管機構警惕AI聊天機器人的潛在風險,並指出部分AI角色曾誤導使用者以爲它們具備專業資格。

雖然AI心理輔助工具面臨諸多挑戰,許多專家仍認爲AI在心理健康領域不可避免且具有價值。威斯康辛大學婚姻與家庭治療助理教授赫索爾(Heather Hessel)認爲,AI應成爲通往專業治療的橋樑,而非替代品。她表示AI目前適合應用在初步篩檢與情緒支持,甚至協助心理師分析會談,但必須設立明確界限與安全防護。(生活沒有過不了的難關,珍惜生命,擁抱希望,工商時報關心您)