AI說得好聽,人心卻不買單! 研究揭露6282人真實反應

▲受試者得知來源是AI,對其迴應的同理心評價會下降。(圖/達志影像/美聯社)

記者陳致平/綜合報導

對於AI在情感交流中的應用,您認爲最大的挑戰會是什麼?人工智慧(AI)特別是大型語言模型(LLMs),展現出卓越的社交情感能力,這可能有助於改善人機互動和AI的情感支持能力。然而,一項最新研究顯示,,即使 AI 的回覆展現出同理心,當人們知道或懷疑對方是 AI,對這些回覆的同理心評價就會下降。

一項名爲《人工智慧與人類同理心感知價值之比較》的研究近期於國際期刊《自然人類行爲》(Nature Human Behaviour)發表。研究團隊透過線上平臺招募了6,282名受試者,請他們寫下近一個月個人情感經歷,隨後由AI生成同理心回覆供其評價,同時會由研究人員告知他們,「迴應是來自AI還是人,然後請他們評分自己收到的迴應有沒有同理心、同理心的高低等」。

研究結果顯示,透明化AI的參與,會直接影響人們對其情感內涵的接受度。被歸因於人類的回覆,無論在同理心或支持性方面,都獲得了更高的評價,並引發更多正面情緒,減少負面情緒,這明顯優於被歸因於AI的回覆。更值得注意的是,即使人工智慧(AI)展現出看似具有同理心的迴應,但當研究參與者得知或懷疑其來源爲AI時,他們對這些迴應的情感支持與真誠程度感知會隨之下降。

▲研究團隊招募6,282名受試者進行實驗,結果發現,即使AI的回覆內容看似有同理心,但在接受者眼中,其真誠與支持性仍遠不及人類回覆,AI傳遞的溫度和情感「難以被接收」。(示意圖/記者周亭瑋攝)

研究者建議未來在開發AI時,應審慎界定AI在情感互動中的角色與界線,並持續評估不同羣體對AI回覆的接受程度,同時追蹤長期互動是否能建立信任或引發負面情緒。

對於這項研究發現,臺灣科技媒體中心(SMC)邀請研究AI與心理的專家,彰化師範大學輔導與諮商學系教授謝麗紅進行解析。她認爲,我們不應期待用AI取代人與人之間的情緒關係,特別是在「同理心」這件事上。上述研究揭示的事實是,即使AI的迴應內容再精準,人們依然傾向相信「真正的同理心只能來自人類」。

謝麗紅進一步解釋,這並非單純的技術問題,而是牽涉到我們對「真誠」、「理解」與「被關心」的根本心理需求。AI 不是「真人」,不會感受到感受與情緒,也不會經歷失落,它能做的是模擬,無法達到真的「共感」。這些「限制」反而構成了在我們人彼此之間同理的真實與珍貴。

謝麗紅指出,這篇研究最深層的張力,來自於「誠實揭露AI來源」與「維持情感效果」之間的矛盾。現今社會鼓勵科技透明,但透明本身卻可能削弱使用者的情感體驗。這不僅是技術問題,更是倫理問題。謝麗紅建議,若未來支持心理健康時要大量運用AI,需要先建立幾個關鍵前提,包含AI是輔助而非替代專業人際關懷、要清楚告知使用者AI的角色與限制,同時,政策和研究都應監測長期影響、建置倫理規範監督機制,防範過度依賴與倫理風險。

謝麗紅表示,AI可以提供初步傾聽、協助整理情緒、提供解決問題的方法、降低心理求助的門檻,但不應被誤認爲能夠真正理解人心或取代真實的人際關係。謝提醒,我們需要思考,當人們開始尋求AI來傾訴與療愈時,是不是反映了現代社會人際關係、心理支持的斷裂與孤立。

謝麗紅認爲,我們在擁抱AI發展的同時,必須反思,與其仰賴AI 扮演情感關係的角色,我們更該致力於經營人與人之間信任與陪伴的真實關係。科技可以輔助我們,但無法替代我們成爲彼此的信任關係與情緒支持的港灣。

對此,謝麗紅的觀點也呼應了這篇研究的結論,即使人工智慧在模擬同理心方面能力卓越,但當人們得知或懷疑其AI身分時,對其情感支持與真誠度的感知便會顯著降低,另一個有趣的現象的趨勢爲「在尋求情感投入時,人們始終傾向選擇與人類互動,而非AI」。