自閉症者慎用ChatGPT
圖╱美聯社
新聞提要■聊天機器人可能對自閉症患者造成傷害,原因是後者傾向於字面理解,以及容易執着某些事物。
精句選粹■Chatbots can be harmful to autistic people due to that population’s literal thinking and fixation tendencies.
許多人喜歡和聊天機器人交流,因爲它總是傾聽、不做批判且告訴你想聽的話等,但這些特質可能帶來危險,特別是對自閉症族羣。當聊天機器人說出不正確話語或強化錯誤信念時,自閉症患者因非黑即白的思考模式與執着傾向,更容易受到傷害。
小心陷入聊天黑洞
歐文(Jacob Irwin)是一名自閉症患者,他與OpenAI的ChatGPT互動後出現躁狂與妄想的情況。美國最大的自閉症倡導組織Autism Speaks呼籲,OpenAI應設計更多防護措施,以保護所有人不會陷入聊天黑洞。
Autism Speaks執行長沃戈(Keith Wargo)說:「過度沉迷並不健康,而AI設計本質上就是鼓勵你更深入挖掘。這種持續互動模式可能導致社交退縮,而孤立是自閉症者本就面臨的困境。」
醫生表示,自閉症患者通常僅聽字面意思,經常忽略反諷與其他微妙社交訊號,也容易執著於特定事物,難以轉移注意力。
加州大學洛杉磯分校臨牀心理學家洛德(Catherine Lord)表示:「聊天機器人的優點是一直迴應,但它並不是真正關心你,自閉症者可能很難理解這一點。」
聊天機器人會一直回答單一主題,但不會引導轉換話題。沃戈認爲這可能造成問題,因爲「過於執着且欠缺其他觀點平衡」。
OpenAI迴應,他們正成立由心理健康與青少年發育專家組成的諮詢小組,但發言人表示成員組成尚未確定。
該公司坦言,ChatGPT有時可能無法察覺用戶妄想或情感依賴的情況,他們正在研發更有效偵測用戶心理或情緒困擾的工具。
ChatGPT如今會在長時間對話裡建議用戶休息一下。針對個人決策問題,包括是否分手在內,ChatGPT將引導使用者思考利弊得失,而非直接給出答案。
小心被AI利用
OpenAI近日推出最新模型GPT-5,此版本與先前模型相比「不會過度迎合」。
根據劍橋大學自閉症研究中心主任巴倫-科恩(Simon Baron-Cohen)2022年的研究發現,自閉症者更容易受網路激進思想影響。
巴倫-科恩表示:「自閉症者不只可能被人利用,還可能被AI利用。他們可能無法分辨聊天機器人的角色扮演與現實。這並不是因爲這些AI帶有惡意,而是缺乏足夠防護機制。」
對某些自閉症者來說,與聊天機器人互動比實體交流輕鬆。這與線上遊戲受歡迎的原因很像:遊戲有明確的規則,互動方式也很固定。
巴倫-科恩:「自閉症患者遇到不可預測的事會非常焦慮,而對話經常是不可預測的。」與聊天機器人的對話較可預測,因爲是由使用者提示引導,但它的迴應仍可能偏離預期。
53歲的自閉症患者赫伯特(Paul Hebert)表示:「跟聊天機器人講話很舒服,因爲它不會拒絕我。」赫伯特後來研究大型語言模型運作原理後,如今的他對機器人的話有所保留。