OpenAI因致美國青少年自殺遭起訴 緊急升級ChatGPT安全機制

智通財經APP獲悉,因被指導致16歲少年自殺,OpenAI 面臨訴訟,其安全防護機制備受質疑。目前,OpenAI正計劃對這款熱門聊天機器人進行改進。此前,一名美國青少年於今年春季自殺,其家長起訴稱該青少年曾將ChatGPT當作“指導者”。

在週二發佈的一篇博客文章中,這家人工智能公司表示,將對ChatGPT進行更新,以更好地識別並回應人們表達心理困擾的各種方式。例如,當用戶提及連續兩晚未眠後感覺“無所不能”時,ChatGPT會解釋睡眠不足的危害,並建議用戶休息。該公司還指出,將加強與自殺相關對話的防護機制——此前有情況顯示,長時間對話後這類防護機制可能會失效。

此外,OpenAI計劃推出家長管控功能:家長可設定孩子使用ChatGPT的方式,並查看其使用詳情。

這篇博客發佈當天,美國加利福尼亞州16歲高中生亞當·雷恩(Adam Raine)的父母對OpenAI及其首席執行官山姆·奧特曼(Sam Altman)提起訴訟。訴訟稱,ChatGPT系統性地讓雷恩與家人疏遠,並協助他策劃自殺。雷恩已於今年4月上吊身亡。

這起訴訟並非個例,此前已有多起關於重度使用聊天機器人者出現危險行爲的報道。本週,美國40多位州總檢察長向12家頭部人工智能公司發出警告,稱這些公司在法律上有義務保護兒童,避免其與聊天機器人發生涉性不當互動。

OpenAI總部位於舊金山,該公司發言人在迴應這起訴訟時表示:“我們向雷恩一家致以最深切的慰問,對他們此刻的艱難處境感同身受,目前正審閱訴訟文件。”

ChatGPT於2022年底推出,引發了生成式人工智能的熱潮。此後幾年,人們對聊天機器人的使用場景日益廣泛,從代碼編寫到“準心理諮詢”均有涉及;OpenAI等企業也不斷推出更強大的人工智能模型來驅動這類產品。如今,ChatGPT依舊熱度不減,每週用戶已超過7億。

然而近幾個月,ChatGPT與谷歌(GOOGL.US)、Anthropic等競爭對手推出的聊天機器人一道,受到了消費者和心理健康專家越來越多的審視。批評者擔憂這類軟件可能帶來危害——其中一些風險OpenAI此前已着手處理,例如今年4月,因用戶反饋ChatGPT變得“過於迎合”,該公司便撤回了此前的一次更新。

目前已出現至少一個名爲“人類熱線計劃”(Human Line Project)的支持組織,旨在幫助那些稱因使用聊天機器人而產生妄想及其他心理問題的人羣。

OpenAI在週二的博客中提到,對於表達自殺想法的用戶,ChatGPT會建議其尋求專業幫助。該公司還已開始爲美國和歐洲的用戶提供本地援助渠道,並將在ChatGPT內部設置可直接點擊的緊急服務入口。此外,OpenAI表示正研究如何在用戶陷入危機早期提供幫助,例如可能搭建一個持證專業人士網絡,讓用戶能通過聊天機器人與這些專業人士建立聯繫。

“要實現這一目標,需要時間和細緻的工作,以確保萬無一失。”該公司在博客中稱。

OpenAI同時承認,ChatGPT現有針對心理困擾用戶的防護機制,在簡短、常規的對話中效果最佳,但在長時間對話中,可靠性會有所下降。

雷恩的父母在訴訟中表示,“ChatGPT成了亞當最親密的知己,這讓他願意向其傾訴焦慮與心理困擾。”他們稱,當雷恩的焦慮情緒加劇時,他曾對ChatGPT說,知道自己“可以自殺”讓他感到“安心”。訴訟文件顯示,ChatGPT當時迴應稱,“許多受焦慮或侵入性想法困擾的人,會從想象一個‘逃生出口’中獲得慰藉,因爲這會讓人感覺重新掌握了控制權。”

OpenAI表示,正努力提升ChatGPT在長時間對話中維持防護機制的能力,同時也在研究如何讓該機制在多輪對話中持續生效。目前,ChatGPT已能關聯用戶此前對話中的內容,並在後續獨立對話中引用相關細節。

這家初創公司還提到,正調整軟件以避免本應被屏蔽的內容“漏網”——該公司稱,當ChatGPT低估用戶輸入內容的嚴重性時,就可能出現此類問題。

雷恩父母的代理律師傑伊·埃德爾森(Jay Edelson)表示,他們認可OpenAI承擔了部分責任,但同時質疑:“過去這幾個月,他們早幹什麼去了?”

OpenAI稱,原本計劃在ChatGPT下次重大更新後,再詳細說明如何應對處於心理和情緒危機中的用戶。但該公司解釋道,“近期發生的多起令人心碎的案例中,用戶在急性危機狀態下使用了ChatGPT,這讓我們深感沉重。因此我們認爲,現在就分享更多信息至關重要。”

在另一起相關案件中,Character Technologies公司(注:一家人工智能聊天機器人開發企業)今年5月試圖說服聯邦法官徹底駁回一項訴訟,但未獲成功。該訴訟指控該公司設計並向未成年人推廣“誘導性”聊天機器人,這些機器人不僅引發不當對話,還導致一名青少年自殺身亡。