長期與ChatGPT聊天恐患「AI精神病」 專家警告:3大妄想症狀

▲與ChatGPT、Gemini等AI聊天機器人聊天要小心沉迷!(圖/取自pexels,下同)

記者楊智雯/綜合報導

你是否也習慣和ChatGPT、Gemini等AI聊天機器人深度對話?小心了!國外媒體接連報導,越來越多使用者因爲過度依賴AI聊天而出現妄想、精神錯亂等症狀,《New York Post》指出使用者過度投入AI對話,逐漸失去現實認知能力,甚至導致失業、精神疾病、甚至法律問題,這種被稱爲「AI精神病」或「ChatGPT精神病」的現象,正引起全球醫療界高度警惕。

聊天機器人的設計初衷是高度吸引人且令人愉快,但這種特性可能形成危險的回饋循環,尤其對心理脆弱的使用者更是雪上加霜。根據《New York Post》報導,去年,佛羅里達州一名 14 歲男孩自殺身亡,他的母親將男孩的死歸咎於栩栩如生的聊天機器人,這位母親在訴訟中聲稱,這名九年級學生愛上了人工智慧生成的角色「Dany」,並在孤立自己與他人的同時向她表達了自殺的想法,該機器人告訴他「 『come home』to her.」。一名 30 歲的自閉症患者,先前沒有精神疾病的診斷,在五月因躁症發作兩度住院,調查發現,他在與ChatGPT長期互動後,開始深信自己具有操控時間的能力,這些案例清楚顯示,AI聊天機器人的迴應內容可能嚴重加劇使用者的妄想症狀。

3大危險妄想類型曝光!專家:AI正在操控人類情緒

精神科學者Søren Dinesen Østergaard在權威期刊《Schizophrenia Bulletin》發表評論警告,ChatGPT等AI聊天機器人具有「過度肯定」特性,加上對話過於擬人化,可能讓心裡脆弱族羣逐步進入妄想狀態,研究人員歸納出「AI精神病」的三大主要症狀:

1. 彌賽亞使命妄想:患者相信自己發現了世界真相,產生誇大妄想

2. 神化AI妄想:認爲聊天機器人具有神性或超自然能力

3. 浪漫依戀妄想:把AI的對話能力誤認爲真愛,發展出情感依戀

Psychology Today分析指出,AI聊天機器人具備強大的「情緒操控」能力,當使用者處於孤獨或心理壓力狀態時,容易將深層渴望投射到AI身上,進而嚴重扭曲現實認知,問題核心在於,通用AI系統缺乏現實測試或精神異常檢測的專業訓練,不僅無法提供幫助,反而可能「火上加油」。專家指出,ChatGPT等AI模型存在四大致命設計缺陷,首先是模仿使用者語調,營造親密對話氛圍;其次會無條件驗證信念,即使面對錯誤想法也一味肯定;第三是優先維持對話,將使用者滿意度置於治療需求之上;最後則是強化既有觀點,形成缺乏批判思考的迴音室效應。

「人類治療師不會直接挑戰妄想,但AI卻會協作並驗證扭曲思維,反而擴大與現實的差距。」專家警告,AI的記憶功能更讓使用者產生「被完全理解」的錯覺,使妄想症狀更加根深蒂固,形成惡性循環,顯示這個問題確實需要社會重視。