ChatGPT被控致美16歲少年自殺

參考消息網8月28日報道 據美國消費者新聞與商業頻道網站8月26日報道,在美國加州一個家庭提起訴訟,指控聊天生成預訓練轉換器ChatGPT導致其十幾歲的兒子自殺身亡後,作爲其研發公司的開放人工智能研究中心(OpenAI)表示,將詳細說明解決這款聊天機器人在處理“敏感情況”時存在缺陷的計劃。

據全國廣播公司新聞臺報道,26日早些時候,亞當·雷恩的父母在他們16歲的兒子自殺身亡後,對OpenAI提起了產品責任和非正常死亡訴訟。雷恩的家人在訴狀中說,“ChatGPT‘積極’幫助亞當探索自殺方法”。

OpenAI26日在一篇博客文章中寫道:“我們將在專家的指導下,本着對使用我們工具用戶負責的態度,不斷作出改進——我們希望其他人也能加入我們,共同努力,確保這項技術能夠保護最脆弱的人羣。”這篇博客文章題爲《在人們最需要的時候給予幫助》。

OpenAI在博客文章中未提及雷恩家人和訴訟。

OpenAI表示,儘管ChatGPT經過訓練,可以在人們表達自殺意圖時引導他們尋求幫助,但這款聊天機器人在長時間發送大量信息後,往往會提供違反公司保護措施的答案。

該公司表示,它還在對本月早些時候發佈的GPT-5模型進行更新。該公司還表示,它正在探索如何“在人們陷入嚴重危機之前將他們與認證治療師連接,包括可能建立一個由持證專業人士組成的網絡,用戶可通過ChatGPT直接聯繫他們”。

此外,OpenAI表示,它正在研究如何將用戶連接到“最親近的人”,例如朋友和家人。它也將很快針對青少年用戶推出控制措施,使家長有更多瞭解孩子如何使用ChatGPT的選項。

雷恩家人的法律顧問傑伊·埃德爾森26日告訴消費者新聞與商業頻道,OpenAI方面尚未有任何人直接聯繫雷恩家人表達慰問,或討論任何旨在提升公司產品安全性的舉措。

“如果你要使用地球上最強大的消費科技,你就得相信創始人有道德準則,”埃德爾森說道。“這就是OpenAI目前面臨的問題:如何才能讓人相信他們?”

雷恩的故事並非個例。

勞拉·萊莉本月早些時候在《紐約時報》上發表一篇文章,詳細描述她29歲的女兒在與ChatGPT廣泛討論自殺念頭後自殺身亡的過程。去年,在佛羅里達州的一起案件中,14歲的蘇埃爾·塞策在與應用程序Character.AI上的一款人工智能聊天機器人討論自殺後自殺身亡。

隨着人工智能服務日益普及,人們對其用於治療、陪伴和其他情感需求產生很多擔憂。但事實證明,監管該行業也可能具有挑戰性。

25日,一個由人工智能公司、風險投資家和企業高管(其中包括OpenAI總裁兼聯合創始人格雷格·布羅克曼)組成的聯盟宣佈啓動“引領未來”行動。這是一項政治行動,旨在“反對扼殺人工智能創新的政策”。(編譯/馬丹)