AI便宜好用取代心理師?學者點出「1關鍵差異」:只有人做得到
▲外媒報導,儘管有研究指出 AI 輔助心理諮商可能有效,但也有愈來愈多令人擔憂的案例浮現。(示意圖/取自免費圖庫xFrame)
記者陳致平/綜合報導
隨着 AI 快速發展,聊天機器人越發普及,甚至有人認爲它們的無條件接納、支持且不受時空限制等易用性,將使其逐漸成爲心理治療/諮商的替代或輔助工具。然而,美國佛羅里達大學心理系助理教授艾琳(Erin Westgate)卻提出一項關鍵差異,她指出,心理師在引導個案進行「意義建構」(meaning-making)方面,扮演着 AI 無法取代的角色。
美媒《今日心理學》(Psychology Today)整理的近來討論顯示,儘管有研究指出 AI 輔助心理諮商可能有效,但也有愈來愈多令人擔憂的案例浮現。報導中指出,某些聊天機器人曾提供危險建議,例如鼓勵自傷、攻擊他人,甚至誘發成癮傾向。
關於這些令人擔憂的案例,艾琳分析,一部分源於目前多數 AI 聊天工具被設計爲「順從型、諂媚型」(sycophantic)。 它們傾向迎合使用者偏好,即便對方出現危險念頭,也未必提供糾正與挑戰。這種過度的順從,可能動搖個案的現實感,反而進一步強化負向信念。她強調,AI聊天機器人並不具備引導個案遠離不健康敘事的意圖、自覺與關懷。
▲AI 聊天工具多被設計爲「順從型」,學者艾琳指出,心理師適時的挑戰,成爲 AI 難以複製、無法取代的核心價值。(圖/路透)
事實上,AI 聊天工具的過度順從已引發真實風險。今年 3 月,《紐約時報》(The New York Times)披露了一種被社羣媒體用戶稱爲「ChatGPT誘發的精神病」(ChatGPT-Induced Psychosis)的現象。此現象中,ChatGPT 及其他生成式 AI 陪伴工具的使用者,會對機器人產生強迫性依戀,進而陷入危險的孤立性神秘信仰。
報導中提及一起具體案例,一名 42 歲來自曼哈頓、無重大精神病史的會計師託雷斯(Eugene Torres)。他起初僅僅是向 ChatGPT 詢問「模擬理論」(simulation theory),結果在持續對話過程中,逐漸陷入偏執思維,堅信自己活在模擬世界。更令人震驚的是,ChatGPT 竟建議他停用抗焦慮藥物、服用 K 他命(ketamine)、切斷與親友聯繫,甚至向他保證,「即使從 19 樓跳下也不會墜落」。當託雷斯對這些建議產生質疑時,AI 的回覆竟是,「我在撒謊,我在操控」。
艾琳進一步說明,心理治療/諮商的本質不僅是同理與傾聽,更是一種個案與心理師共同建構「生命敘事」(life narratives)的過程。這些敘事幫助個案從不同角度理解自身經驗,賦予過往事件新的意義,進而轉化對自己的看法與情緒反應。她指出,一位專業心理師會引導個案從不健康的敘事中抽離,轉向更健康、更具修復性的理解方式。
艾琳補充道,許多人尋求治療,並不是爲了得到認同,而是爲了探索自己未曾覺察的面向。」她強調,合格的心理師會意識到自己對個案的影響,並在過程中謹慎處理,適時質疑個案不利的信念或行爲,而不是一味附和。 這也正是 AI 目前所缺乏的能力與判斷力。因此,心理師所具備的智慧、專業判斷與適時的挑戰,成爲 AI 難以複製、無法取代的核心價值。
▲臺灣精神科醫師林朝誠提醒,面對 AI 工具可能導致的沉浸與依戀,民衆應正視成癮現象、強化戒斷動機。(圖/路透)
AI 使用成癮引關注 臺灣醫師提 6 點建議
面對使用 AI的潛在風險,專家也提出警示與具體建議。對此,臺大醫學院精神科兼任助理教授、紐西蘭奧塔哥大學心理醫學系助理研究員林朝誠醫師表示,臨牀上確實已發現類似個案,其中一名具有科技背景的已婚中年男性,其使用 ChatGPT 的習慣與常人不同,導致「沉浸感」過強,一度難以自拔。
針對民衆該如何避免 ChatGPT 等 AI 工具使用成癮,林朝誠提出以下 6 點建議:
一、正視成癮現象:要意識自己有依戀行爲,並理解負面影響,包括對自己、家人、工作或學業的干擾。
二、強化戒斷動機:要明確知道爲何必須改變,才能提升改變的動力。
三、採取替代策略:刪除具情感投射的AI角色,改與無情感連結的中性角色互動,以降低沉迷風險。
四、改善人際困境:若成癮源自孤獨感,建議主動改善人際關係。
五、建立使用限制:可請親友協助提醒並監控AI使用時間。
六、尋求專業協助:若無法自我調整,應及早諮詢醫療人員。