OpenAI内部文件揭露:Altman的信任危机与公司的商业化蜕变

天之林16 小时前
非营利的尸体上,长出了一棵摇钱树。

原文作者:小饼,深潮 TechFlow

2023年秋天,OpenAI首席科学家Ilya Sutskever坐在电脑前,完成了一份70页的文件。这份文件整理自Slack消息记录、HR沟通档案和内部会议纪要,只为回答一个问题:Sam Altman,这个掌管着可能是人类历史上最危险技术的人,到底能不能被信任?

Sutskever给出的答案,写在文件第一页的第一行,列表标题是"Sam表现出一贯的行为模式……" 第一条:撒谎。

两年半后的今天,调查记者Ronan Farrow和Andrew Marantz在《纽约客》发表了一篇超长调查报道。采访超过100位当事人,拿到了此前从未公开的内部备忘录,还有Anthropic创始人Dario Amodei在OpenAI时期留下的200多页私人笔记。这些文件拼出来的故事,比2023年那场"宫斗"难看得多:OpenAI怎样从一家为人类安全而生的非营利组织,一步步变成商业机器,几乎每一道安全护栏,都是被同一个人亲手拆掉的。

Amodei在笔记中的结论更直白:“OpenAI的问题就是Sam本人。”

OpenAI的"原罪"设定

要理解这篇报道的分量,得先说清楚OpenAI这家公司有多特殊。

2015年,Altman和一群硅谷精英做了一件商业史上几乎没有先例的事:用一家非营利组织来开发可能是人类历史上最强大的技术。董事会的职责写得很明白,安全优先于公司的成功,甚至优先于公司的存活。说白了,如果有一天OpenAI的AI变得危险了,董事会有义务亲手把这家公司关掉。

整套架构押注在一个假设上:掌管AGI的人,必须是一个极其诚实的人。

要是押错了呢?

报道的核心炸弹就是那份70页文件。Sutskever不搞办公室政治,他是全球最顶尖的AI科学家之一。但到了2023年,他越来越确信一件事:Altman在持续地对高管和董事会说假话。

一个具体的例子:2022年12月,Altman在董事会会议上保证,即将发布的GPT-4的多项功能已经通过了安全审查。董事会成员Toner要求看审批文件,结果发现其中两项争议最大的功能(用户自定义微调和个人助手部署)根本没有拿到安全面板的批准。

更离谱的事情在印度发生。一名员工向另一位董事会成员举报了"那次违规":微软没有完成必要的安全审查,就在印度提前发布了ChatGPT的早期版本。

Sutskever还在备忘录中记录了另一件事:Altman曾对前CTO Mira Murati说,安全审批的流程没那么重要,公司法律总顾问已经认可了。Murati跑去跟法律总顾问确认,对方回了一句:"我不知道Sam是从哪里得出这个印象的。"

Amodei的200页私人笔记

Sutskever的文件像一份检察官起诉书。Amodei留下的200多页笔记,更像一个目击者在案发现场写的日记。

Amodei在OpenAI做安全负责人那几年,亲眼看着公司在商业压力下一步步后退。他在笔记中记了2019年微软投资案的一个关键细节:他曾在OpenAI章程里塞进一个"合并与协助"条款,大意是,如果有别的公司找到了更安全的AGI路径,OpenAI就该停止竞争,转去帮那家公司。这是他在整笔交易中最看重的安全保障。

交易快签的时候,Amodei发现了一件事:微软拿到了对这个条款的否决权。什么意思?就算真有一天某个竞争对手找到了更好的路,微软一句话就可以堵死OpenAI的协助义务。条款还在纸上,但从签字那天起就是废纸。

Amodei后来离开OpenAI,创立了Anthropic。两家公司之间的竞争,底层是关于"AI应该怎么开发"的根本性分歧。

消失的20%算力承诺

报道里有一个细节,读完让人后背发凉,关于OpenAI的"超级对齐团队"。

2023年年中,Altman邮件联系了一位在伯克利研究"欺骗性对齐"(AI在测试中装乖、实际部署后搞自己那套)的博士生,说自己非常担忧这个问题,在考虑设立一个10亿美元的全球研究奖。博士生很受鼓舞,休了学,加入了OpenAI。

然后Altman改了主意:不搞外部奖项了,在公司内部成立"超级对齐团队"。公司高调宣布,将把"已有算力的20%"拨给这个团队,潜在价值超过10亿美元。公告措辞极其严肃,说如果对齐问题得不到解决,AGI可能导致"人类被剥夺权力,甚至人类灭绝"。

被任命领导这个团队的Jan Leike后来告诉记者,这个承诺本身就是一个很有效的"人才留存工具"。

现实呢?四位在这个团队工作或密切接触的人士说,实际拨给的算力只有公司总算力的1%到2%,还是最老旧的硬件。这个团队后来被解散,使命未完成。

当记者要求采访OpenAI负责"存在性安全"研究的人员时,公司公关的反应让人哭笑不得:"那不是一个……实际存在的东西。"

Altman本人倒是坦然。他跟记者说,自己的"直觉跟很多传统AI安全的东西不太合拍",OpenAI还是会做"安全项目,或者至少是跟安全沾边的项目"。

被架空的CFO与即将到来的IPO

《纽约客》的报道只是这一天坏消息的一半。同一天,The Information爆出另一个重磅消息:OpenAI的CFO Sarah Friar跟Altman之间出了严重分歧。

Friar私下告诉同事,她觉得OpenAI今年还没准备好上市。两个原因:要完成的程序性和组织性工作量太大,Altman承诺的5年6000亿美元算力支出带来的财务风险太高。她甚至不确定OpenAI的营收增长撑不撑得住这些承诺。

但Altman想在今年第四季度就冲刺IPO。

更离谱的是,Friar已经不再直接向Altman汇报了。从2025年8月起,她改为向Fidji Simo(OpenAI的应用业务CEO)汇报。而Simo上周刚因健康原因请了病假。你来品品这个局面:一家冲刺IPO的公司,CEO和CFO有根本性分歧,CFO不向CEO汇报,CFO的上级还休假了。

连微软内部的高管都看不下去了,说Altman"歪曲事实、出尔反尔、不断推翻已达成的协议"。一位微软高管甚至说了这样一句话:"我觉得他有一定概率最终会被人们记住为伯尼·麦道夫或SBF级别的骗子。"

Altman的"双面人"画像

一位前OpenAI董事会成员对记者描述了Altman身上的两种特质。这段话可能是整篇报道里最狠的人物素描。

这位董事说,Altman有一种极其罕见的特质组合:他在每一次面对面的交流中,都强烈渴望取悦对方、被对方喜欢。同时,他对欺骗别人可能带来的后果,有一种近乎社会病态的无所谓。

两种特质同时出现在一个人身上,极为罕见。但对一个推销员来说,这是最完美的天赋。

报道里有一个比喻说得好:乔布斯以"现实扭曲力场"闻名,他能让全世界相信他的愿景。但即使是乔布斯,也从来没有跟顾客说过"你不买我的MP3播放器,你爱的人都会死"。

Altman说过类似的话,关于AI。

一个CEO的人品问题,为什么是所有人的风险

Altman要只是一家普通科技公司的CEO,这些指控充其量是一个精彩的商业八卦。可OpenAI不普通。

按照它自己的说法,它正在开发可能是人类历史上最强大的技术。能重塑全球经济和劳动力市场(OpenAI自己刚发了一份关于AI导致失业问题的政策白皮书),也能被用来制造大规模生化武器或发动网络攻击。

所有的安全护栏名存实亡了。创始人的非营利使命让位给了IPO冲刺。前首席科学家和前安全负责人都认定CEO"不可信"。合作伙伴把CEO比作SBF。在这种情况下,这个CEO凭什么单方面决定什么时候发布可能改变人类命运的AI模型?

Gary Marcus(纽约大学AI教授、长期AI安全倡导者)读完报道后写了一句话:如果某个未来的OpenAI模型能造出大规模生化武器或发动灾难性网络攻击,你真的放心让Altman一个人来决定发不发布?

OpenAI对《纽约客》的回应倒是简洁:"这篇文章的大部分内容是在翻炒已报道过的事件,通过匿名说法和有选择性的轶事,消息源显然带有个人目的。"

很Altman的回应方式:不回应具体指控,不否认备忘录的真实性,只质疑动机。

非营利的尸体上,长出了一棵摇钱树

OpenAI的十年,写成一个故事大纲是这样的:

一群担忧AI风险的理想主义者创建了一家使命驱动的非营利组织。组织做出了非凡的技术突破。突破吸引了巨额资本。资本需要回报。使命开始让路。安全团队解散了。质疑的人被清洗了。非营利架构改成了营利实体。曾经有权关掉公司的董事会,现在坐满了CEO的盟友。曾经承诺拿出20%算力守护人类安全的公司,现在的公关人员说"那不是一个实际存在的东西"。

故事的主角,一百多位亲历者给了他同一个标签:"不受真相约束。"

他正准备带着这家公司IPO,估值超过8500亿美元。

本文信息综合自《纽约客》、Semafor、Tech Brew、Gizmodo、Business Insider、The Information等多家媒体的公开报道。

免责声明:

1.资讯内容不构成投资建议,投资者应独立决策并自行承担风险

2.本文版权归属原作所有,仅代表作者本人观点,不代币币情的观点或立场