OpenAI AI 安全策略遭質疑,前高管批評其“篡改公司歷史”

IT之家 3 月 7 日消息,據外媒 Wccftech 當地時間 6 日報道,OpenAI 最近向社區分享了其謹慎、逐步部署 AI 模型的方法,採取分階段發佈的策略,並以 GPT-2 的謹慎發佈爲例。然而,這一示例引發了前 OpenAI 政策研究員 Miles Brundage 的批評,他指責公司歪曲了 AI 安全的歷史。

OpenAI 發佈的文件闡明瞭其對 AI 安全和模型部署的態度。文件中強調,公司在處理現有系統時始終保持謹慎,並提到 GPT-2 是其謹慎發佈策略的一部分。公司“相信”只有通過從現有工具中學習,才能確保未來系統的安全。

IT之家附文件部分內容大意如下:

曾任公司政策研究負責人多年的 Miles Brundage 堅稱,GPT-2 的發佈同樣採取了逐步推進的方式,OpenAI 在每個階段都分享了相關信息,安全專家也對公司在處理模型時的謹慎態度表示認可。他認爲,GPT-2 的逐步發佈與公司當前的逐步部署策略一致,並堅信過去的謹慎並非過度,而是必要且負責任的。

“這篇文章大部分內容都很好,我爲那些致力於其中所討論的實質性工作的人們點贊。但我非常不滿 / 擔憂‘AGI 分步實現而非一蹴而就’這一說法,它以令人不安的方式重寫了 GPT-2 的歷史。”

Brundage 還表達了對 OpenAI 聲稱 AGI 將通過逐步發展而非突發突破的說法的擔憂。他指出,公司歪曲 GPT-2 發佈歷史並篡改安全歷史的做法令人擔憂。他還表示,OpenAI 發佈該文件的目的可能是爲安全問題設立標準,或將這些問題視爲過度反應,可能帶來巨大的風險,尤其是在 AI 系統正在日益進步的當下。

這並非 OpenAI 第一次因過度追求進步和利潤而忽視長期安全問題而受到批評。像 Brundage 這樣的專家擔心,如果不對 AI 安全保持謹慎,未來可能面臨的風險將十分嚴重。