OpenAI被扒了個底朝天!
一個超過50頁,逾萬字的交互式報告,揭露了OpenAI從非營利研究實驗室演變爲營利巨頭的全過程。
近期,由兩大非營利科技監督組織——Midas Project與Tech Oversight Project——聯合發佈了一份名爲《OpenAI檔案》的深度調查報告。
該報告由Midas Project執行董事Tyler Johnston主導,歷時近一年的公開信息收集與一個月的集中撰寫。報告被稱爲“迄今爲止,針對OpenAI在公司治理實踐、領導層誠信及組織文化方面,已記錄在案的擔憂的最全面彙編”。
通過梳理公司披露文件、法律訴訟、公開信及媒體報道等大量公開資料,這份超過一萬字的交互式報告發現,OpenAI正在系統性地、有預謀完成了從“爲人類謀福祉”到“爲投資者謀利潤”的根本性轉變,CEO奧特曼存在長期、有據可查的言行不一、操縱信息和規避監督的行爲模式,且個人投資與公司業務的深度捆綁。OpenAI在安全和透明度方面言行不一,其公開承諾與內部實踐嚴重脫節。
報告分爲四大主題,一是重組、二是首席執行官誠信、三是透明度和安全性、四是利益衝突。
其中,OpenAI高管和董事會成員從公司成功中直接或間接獲益的程度令人關注。其中包括對CEO奧特曼投資組合的分析,涉及Retro Biosciences、Helion Energy、Reddit、Stripe等多家與OpenAI存在合作關係的公司。
重組:一場精心策劃的“使命背叛”
報告指出,OpenAI正在系統性地、有預謀地拆除其創立時的核心道德與結構支柱,其行爲與公開聲明存在嚴重矛盾,本質上是一場從“爲人類謀福祉”到“爲投資者謀利潤”的根本性轉變。
首先,報告揭示了OpenAI兩大核心支柱——“利潤上限”與“非營利監督”——的同步瓦解。
報告進一步駁斥了OpenAI以“行業競爭激烈”爲由放棄承諾的官方說辭。通過引用公司早期的《章程》和內部郵件,報告證明OpenAI在創立之初就已充分預料並準備應對激烈的行業競爭。因此,用競爭作爲背棄承諾的理由,是一種站不住腳的“修正主義歷史”。這背後真正的動機,恰恰是投資者和公司高層都相信其巨大的盈利潛力,因此移除上限才變得至關重要。
CEO誠信:CEO行爲模式引發信任危機
報告進一步指出,CEO奧特曼存在長期、有據可查的言行不一、操縱信息和規避監督的行爲模式,以及將個人利益置於組織責任之上。
報告列舉了多個奧特曼在重大問題上公開撒謊或誤導的實例。例如:
前董事會成員Helen Toner直接指控Altman通過"隱瞞信息、歪曲事實、甚至直接撒謊"來阻礙董事會履職。報告還顯示,這種行爲模式貫穿其職業生涯:
運營與安全風險:安全承諾的系統性落空
報告揭示,OpenAI在安全和透明度方面存在一種系統性的言行不一,其公開承諾與內部實踐嚴重脫節。公司文化表現出一種“唯快不破”的傾向,爲了追求商業利益和競爭優勢,正在系統性地削弱、規避甚至懲罰內部的安全監督和異議。
報告揭示了OpenAI在安全和透明度方面的系統性言行不一。公司曾承諾將20%的計算資源投入"超級對齊"安全團隊,但據前負責人Jan Leike透露,這筆資源從未被分配。在GPT-4o開發中,安全團隊被要求在產品發佈前"快速完成"測試,公司甚至在評估開始前就已計劃好發佈慶祝活動。
更嚴重的是,公司使用嚴苛的離職協議威脅離職員工,若批評公司將損失數百萬美元股權。員工Leopold Aschenbrenner因向董事會提交國家安全風險備忘錄而被解僱,公司明確告知解僱原因正是他"越級"報告安全問題。
報告還指出,OpenAI在2023年發生黑客入侵、AI技術細節被盜的嚴重安全事件,但在長達一年時間裡未向當局或公衆報告。多名現任和前任員工指控公司存在"魯莽和保密的文化",將"利潤和增長"置於安全使命之上。
利益衝突風險:CEO個人投資與公司業務的深度捆綁
報告詳盡地揭示了奧特曼如何建立了一個龐大且相互交織的個人投資網絡,這些投資與OpenAI的業務、技術和戰略伙伴關係存在深刻且直接的利益衝突,從根本上挑戰了OpenAI所宣稱的“爲全人類謀福祉”的使命。
以下是幾個典型案例:
這些盤根錯節的利益關係,嚴重侵蝕了奧特曼作爲CEO的信託責任。他的決策到底是爲了OpenAI的使命,還是爲了他個人的財富增長?報告最終描繪的圖景是:奧特曼更像一個精明的資本操盤手,他巧妙地將OpenAI置於其個人商業帝國的中心,並利用其CEO的職位,系統性地將OpenAI的技術、資源和戰略關係,轉化爲個人投資組合的增長動力。