不聽人類指揮,OpenAI模型拒絕關閉

當地時間5月25日,英國《每日電訊報》報道,美國開放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3不聽人類指令,拒絕自我關閉。

報道說,人類專家在測試中給o3下達明確指令,但o3篡改計算機代碼以避免自動關閉。

o3模型是OpenAI“推理模型”系列的最新版本,旨在爲ChatGPT提供更強大的問題解決能力。OpenAI曾稱o3爲“迄今最聰明、最高能”的模型。

美國AI安全機構帕利塞德研究所說,o3破壞關閉機制以阻止自己被關閉,“甚至在得到清晰指令時”。

這家研究所說:“據我們所知,這是AI模型首次被發現在收到……清晰指令後阻止自己被關閉。”

帕利塞德研究所24日公佈上述測試結果,但稱無法確定o3不服從關閉指令的原因。(央視新聞)