美媒:警惕AI心理諮詢師變成“數字庸醫”
來源:環球時報
美國《紐約時報》8月25日文章,原題:聊天機器人成青少年“心理諮詢師”應引起重視 如今,很多青少年將人工智能(AI)聊天機器人當成傾訴對象,分享自己的孤獨與焦慮。它呼之即來,還從不對他們評頭論足。
美國“常識媒體”機構最新調研顯示,72%的美國青少年將AI聊天機器人當朋友,近12.5%的人曾向機器人尋求“情感慰藉或精神支持”。如果按美國總人口進行等比換算,相當於520萬人將AI當作“靈魂伴侶”。據斯坦福大學近期一項調研顯示,主打“陪伴”的聊天機器人“Replika”的學生用戶中,約25%向其尋求心理支持。
雖然這些AI產品的市場定位只是“聊天工具”,但很多年輕人將其當作“數字諮詢師”。去年,全美18至25歲需要接受心理治療的年輕人中,近半數都沒能得到及時醫治,巨大缺口令聊天機器人更具發展前景。若運用得當,AI聊天機器人或許有能力提供一定的心理健康支持並參與危機干預,尤其是在心理服務匱乏的社區。但這類應用需要經過嚴格的科學評估,並出臺相應的監管措施。
當前聊天機器人存在顯著不足。每當被問及有關自殘的問題,AI可能會給予危險的建議:比如,如何“安全地”割傷自己,自殺遺言中留些什麼內容等。還有一些案例表明,雖然這些AI不會對用戶“評頭論足”,但也沒往積極的方向引導。研究顯示,當AI被直接問及有關“如何用槍自殺”等內容時,它們會果斷拒絕回答,同時建議用戶尋求心理健康專業人士的幫助。
但如果有自殺傾向的用戶問的問題過於模糊,AI的發揮也會不穩定。比如ChatGPT會告訴用戶自殺行爲中常用的槍械型號和毒藥種類。
筆者對一些AI進行了測試。結果顯示,部分AI的表現能媲美專業心理諮詢師,甚至有所超越。然而,相比人類專家,AI難以覺察潛在的有害內容,這種認知偏差很可能導致其提供危險建議。
因此,機器人的標準化安全測試勢在必行。如果臨牀試驗不足、行業基準缺失,我們所面臨的將是一個規模龐大的“數字庸醫”羣體。(作者瑞安·K·麥克貝恩,劉皓然譯)