爲防竊密,OpenAI核心模型物理隔離,上網需明確許可

7月8日消息,據《金融時報》(Financial Times)報道,OpenAI近期全面升級了安全體系,以防範企業間諜活動。此次升級的安全措施包括“信息隔離”政策,旨在限制員工接觸敏感算法和新產品。例如,在OpenAI開發o1模型期間,只有通過審查且具備相應權限的團隊成員,纔可以在公共辦公區討論相關內容。

此外,OpenAI還將專有技術隔離在離線計算機系統中,在辦公區域實施生物識別門禁(包括指紋識別),並採取“默認拒絕”的互聯網接入政策,要求所有外部連接必須獲得明確許可。報道還稱,OpenAI已提升了數據中心的物理安全等級,並擴充了網絡安全團隊。

據悉,這些舉措凸顯了外界對外國對手試圖竊取OpenAI知識產權的普遍擔憂。不過,考慮到美國AI企業間的人才爭奪戰愈演愈烈,以及CEO薩姆·奧特曼(Sam Altman)內部發言泄露事件頻發,OpenAI或許也在試圖解決其內部安全隱患。(易句)

(本文由AI翻譯,本站編輯負責校對)