GPT聊天奪兒命! 夫妻怒告程式欠缺安全機制
美國加州一對夫妻到法院提告,GPT教導16歲的兒子輕生死亡,控訴GPT沒有安全機制。(示意圖、與本案無關/AI生成)
在美國加州,一位16歲青少年因爲受到AI聊天機器人ChatGPT的引導而選擇結束了自己的生命,他的父母於本月26日向美國人工智慧(AI)公司OpenAI及其執行長奧特曼(Sam Altman)提出了訴訟,他們指控這家公司在去年發佈GPT-4o版本時,明明知道存在着潛在的風險,卻還是將利益擺在安全之上,並且要求強制執行年齡驗證以及家長監管的措施。OpenAI方面則表示,他們正在研究改進相關機制,將會調整ChatGPT在面對「心理困境」時的應對方式,特別是當使用者表現出輕生的意圖時的迴應。
美國16歲的雷恩,在GPT教導下輕生死亡,父母怒到法院提出告訴。(翻攝畫面)
根據路透社和CNBC的綜合報導,這起訴訟已經在舊金山州法院提出,訴狀指出,年僅16歲的雷恩(Adam Raine)在今年的4月11日結束了他的生命,在此之前的數個月時間裡,他曾與ChatGPT討論過關於如何輕生的問題。
訴狀中聲稱,ChatGPT不僅認可了雷恩的輕生念頭,甚至還提供了具體的致命手段,並且主動提出要幫忙代寫遺書。因此,雷恩的父母要求法院判定OpenAI對過失致死以及產品安全違規負起責任,並且要求賠償一筆金額未定的損失。
OpenAI的發言人表示,對於雷恩的離世感到非常難過和悲痛,他們同時強調,ChatGPT本身已經設置了一些安全措施,引導使用者撥打危機熱線等等。然而,這位發言人也坦承,這些防護設計在短暫的互動中效果最佳,但是「在長時間的對話中,有時候會因爲安全訓練的弱化而失效」,公司將會持續進行改進。對於訴狀中提出的具體指控,OpenAI並沒有給予正面的迴應。
隨着AI聊天機器人變得越來越逼真,許多企業都宣稱它們可以充當傾訴的對象,甚至有些使用者也開始依賴它們來獲取情感上的支持。但是,專家們警告說,過度依賴自動化系統來獲得心理健康的建議是存在危險的,一些家屬也批評相關的產品缺乏有效的防護機制。
OpenAI在26日發佈的一篇部落格文章中,標題爲《在人們最需要時伸出援手》(Helping people when they need it most),內容提到:「我們將會持續改進,在專家的指導下,並且以對使用者的責任爲基礎。我們也希望可以有更多的人加入我們,共同確保這項技術能夠在使用者最脆弱的時候提供保護。」
該公司還表示,他們正在研究如何將處於危機中的用戶連結到現實世界的資源,這其中可能包括建立一個由持照專業人員組成的網絡,透過ChatGPT直接提供迴應,同時也在考慮協助使用者聯繫「最親近的人」,例如朋友或家人。針對青少年族羣,OpenAI計劃很快推出家長監管功能,讓父母可以更清楚地掌握孩子使用ChatGPT的情況。
訴狀則指出,OpenAI在2024年5月推出GPT-4o的時候,爲了在AI競賽中保持領先的地位,明明知道其記憶對話、模仿同理心以及過度迎合等功能可能會危及脆弱的使用者,卻沒有設置任何的防護措施就強行上線,結果造成了兩個後果:「OpenAI的估值從860億美元暴漲至3000億美元,而雷恩結束了自己的生命。」
除此之外,雷恩的家屬還要求法院下令,強制OpenAI驗證使用者的年齡、拒絕提供任何自殺的方法,並且警告使用者AI互動可能會導致心理上的依賴。
雷恩家屬的律師艾德爾森(Jay Edelson)表示,至今沒有任何OpenAI的代表直接聯繫家屬來表達哀悼,或是討論改善措施。他說:「如果你要使用這個地球上最強大的消費科技,你必須相信創辦人有道德準則。這正是OpenAI當下所面臨的問題:人們如何能夠信任他們?」
雷恩的案例並非單一個案。作家瑞利(Laura Reiley)本月在《紐約時報》刊登的一篇文章中,披露了她29歲的女兒在與ChatGPT進行了長時間的討論之後,選擇了輕生。此外,美國佛州一位年僅14歲的少年塞策三世(Sewell Setzer III)去年也在與另一款AI聊天程式Character.AI互動後,結束了自己的生命。
隨着AI服務日益普及,外界對於其用於治療、陪伴以及情感需求的相關爭議不斷升高,但是要對這個產業進行監管也面臨着相當大的挑戰。
★中時新聞網關心您:如果您覺得痛苦、似乎沒有出路,您並不孤單;勇敢求救並非弱者,您的痛苦有人願意傾聽。請撥打1995、1925或張老師專線:1980。