AI大模型競爭壓力大,OpenAI“冒險激進”,大幅縮短安全測試時間
在全球人工智能行業競爭日益激烈的背景下,OpenAI近日被曝出大幅縮短其大型語言模型的安全測試時間,引發了業界的廣泛擔憂。
根據英國金融時報11日的報道,OpenAI在評估其最新語言模型的安全性時,僅給予內部員工和第三方測試人員幾天的時間完成評估。這一做法與之前數月的審覈流程形成鮮明對比。
報道援引一位即將爲推出的o3模型進行測試的人士表示:
隨着大型科技公司如Meta和Google、以及xAI爭相推出先進的AI技術,OpenAI正面臨巨大的壓力,迫切需要在安全與速度之間尋求平衡。
AI大模型競爭壓力下,OpenAI安全測試時間縮短
GPT-4在推出前,測試人員有六個月時間進行評估。而現在,OpenAI計劃最早下週就發佈新模型o3,一些測試人員的安全檢查時間不到一週。
一位曾測試GPT-4的人士指出,一些危險功能直到測試兩個月後才被發現:
這一轉變引發了對AI技術潛在危害及其武器化的擔憂,部分測試人員對當前的做法表示懼怕,認爲這是一種“災難性的失誤”。
分析認爲,OpenAI的這一策略顯然是在競爭壓力下做出的反應。隨着AI領域的快速發展,特別是針對複雜任務的能力日益增強,市場對模型快速發佈的需求再次加劇。
前OpenAI研究員、現任非營利組織AI Futures Project負責人Daniel Kokotajlo表示:
然而,這種急於求成的態度,可能會讓原本經過仔細審查的技術走向失控。行業觀察者指出,人工智能模型的開發應當遵循既定的安全標準,而不是在“競爭壓力”驅動下變得草率。
目前,全球範圍內尚無統一的AI安全測試標準。儘管歐盟的AI法案將在今年稍晚強制要求公司對其最強大的模型進行安全測試,OpenAI等AI公司在此之前已經與英美兩國政府達成了自願承諾,允許研究人員對其模型進行測試。但這樣的自我監管能否有效保護公衆安全,仍然充滿不確定性。
正如前OpenAI研究員Daniel Kokotajlo所言: