4月7日,《紐約客》雜志發布歷時18個月的重磅調查,通過兩份從未公開的內部文件——前首席科學家Ilya Sutskever的70頁"絕密備忘錄"和Anthropic CEO Dario Amodei的200頁內部筆記——徹底撕開了OpenAI繁榮表象背后的深層裂痕。
這份調查將矛頭直指OpenAI CEO Sam Altman,用硅谷內部人士的一致評價概括其核心問題:"撒謊成性"。
當一家估值高達8520億美元、宣稱要"造福全人類"的AI巨頭,其掌舵人陷入如此嚴重的誠信危機,這其中關乎技術倫理與人類未來的根本性問題。
調查揭露的最觸目驚心的事實,是OpenAI安全防線的系統性瓦解。2023年,OpenAI高調宣布成立"超級對齊團隊",承諾將投入公司20%的總算力進行長期安全研究,由Ilya Sutskever和Jan Leike共同領導。
然而現實與承諾天差地別。據四名親歷者陳述,實際分配給安全團隊的算力僅有1%到2%,而且使用的是最老舊、芯片最差的集群,優質硬件全部被預留用于盈利項目。當Jan Leike向時任CTO Mira Murati投訴時,得到的回應竟是:"這個承諾從來就不現實"。
更令人擔憂的是,產品安全審查的形同虛設。2022年12月的一次董事會會議上,Altman向成員們保證GPT-4的若干高風險功能已通過安全審查委員會批準。但當董事會成員Helen Toner要求查閱文件時發現,允許用戶"微調"模型和將其部署為個人助理均未獲批準。
調查還發現,微軟在印度提前發布了ChatGPT的早期版本,完全跳過了必要的安全審查流程,而Altman在與董事會的多次長時間匯報中從未提及此事。
《紐約客》的調查還原了2023年11月那場震驚科技界的權力風暴的更多細節。時間回到2023年秋天,看著Altman一再繞過規則,Ilya Sutskever感到了真正的恐懼。
這位首席科學家連公司電腦都不敢碰,用手機偷偷拍下證據,通過"閱后即焚"軟件將70頁的絕密備忘錄發送給三位董事會獨立成員。備忘錄開篇的第一條指控就是:"Sam Altman表現出持續撒謊、破壞高管信任且挑撥高管相互對抗的模式"。
2023年11月17日,周五中午,Altman在拉斯維加斯觀看F1比賽時被邀請參加董事會視頻通話,幾分鐘后被告知被解雇了。
然而接下來的發展超出了所有人的預期。Altman當晚在自己2700萬美元的豪宅搭起"作戰室",三線齊發,資本施壓、員工站隊、輿論造勢。微軟威脅"OpenAI可以從此消失",全員聯名信幾乎簽滿,臨時CEO Mira Murati最終倒向Altman。
五天后,Altman官復原職,董事會出局。員工給這場反轉起名"The Blip"——如同漫威電影中角色消失又回歸。
Altman復職后,OpenAI聘請了曾負責安然調查的WilmerHale律所進行獨立調查。然而這場本應還原真相的調查,最終沒有產生任何書面報告。負責調查的律所僅向兩位新董事進行了口頭匯報,這意味著許多嚴重指控至今沒有經過正式的獨立審查程序。
與此同時,OpenAI內部的安全文化進一步瓦解。2024年,超級對齊團隊被解散,Ilya Sutskever和Jan Leike相繼離職。Leike在社交媒體上寫下了那句令人心寒的話:"安全文化和流程已經讓位于閃亮的產品"。
在OpenAI最新的美國國稅局申報表中,"安全"一詞甚至從公司"最重要業務活動"的描述中消失。
這背后,也許是OpenAI目前正面臨嚴重的財務地震。CFO Sarah Friar因反對在2026年預計虧損140億美元的背景下激進推進IPO,已被Altman邊緣化。為填補巨大的資金缺口,OpenAI已接受美國軍方2億美元的合同,并與特朗普政府達成規模高達5000億美元的"星門計劃"合作。
在資本壓力、競爭激烈和技術快速迭代的多重驅動下,安全承諾如何不被商業利益侵蝕?當一家公司掌握著可能重塑人類文明的技術時,應該建立怎樣的治理結構和問責機制?
《紐約客》的調查雖然基于大量內部文件和超過100名知情人士的證詞,但部分指控來源單一,未經交叉核實。Altman本人接受采訪時表示,他的"感覺與很多傳統AI安全的東西不匹配",并籠統表示OpenAI仍會"推進安全項目"。
然而,當安全承諾從20%的算力投入縮水到不足2%的淘汰芯片,當安全團隊被解散,當"安全"一詞從公司核心使命中消失,這些事實本身已經說明了問題。