OpenAI發佈最新研究成果,CoT監控可阻止大模型惡意行爲

3月11日消息,OpenAI發佈了最新研究,用CoT(思維鏈)監控的方式,可以阻止大模型胡說八道、隱藏真實意圖等惡意行爲,同時也是監督超級模型的有效工具之一。據悉,OpenAI使用了最新發布的前沿模型o3-mini作爲被監控對象,並以較弱的GPT-4o模型作爲監控器。測試環境爲編碼任務,要求AI在代碼庫中實現功能以通過單元測試。結果顯示,CoT監控器在檢測系統性“獎勵黑客”行爲時表現卓越,召回率高達95%,遠超僅監控行爲的60%。