OpenAI内部文件曝光:首席科学家指控奥特曼一贯撒谎

牛BB的16 小时前

近日,《纽约客》发表了一篇历时18个月的调查报道,首次披露了OpenAI首席科学家Ilya Sutskever在2023年秋天汇编的70页内部备忘录,以及Anthropic联合创始人Dario Amodei保留多年的200余页私人笔记。这些从未公开的文件指向同一个结论:Sam Altman存在“一贯撒谎”的行为模式。

52LTyKnkjhrp3V5eyxxTUZR74WzwHmJOPHiTazo2.jpeg

这不是一场简单的公司内斗。当AI被认为是可能是“人类历史上最危险的发明”,当一家公司声称要“确保AGI造福全人类”,掌舵者的诚信问题就不再是私事,而是关乎所有人的公共议题。

Altman 的双标

  • Ilya Sutskever向董事会提交70页秘密文件,指控Altman“持续撒谎”。
  • 董事会因Altman“沟通不够坦诚”将其解雇,但5天后被迫恢复其职位。
  • 员工称这次事件为“The Blip”(漫威式的消失与回归)。
  • Altman被曝与微软、亚马逊等巨头存在双重独家协议争议。

安全危机

  • OpenAI解散超级对齐团队,承诺的20%算力实际只给1-2%。
  • 公司从非营利转向营利,估值或达万亿美元。
  • 与中东政权达成500亿美元AI基础设施协议。
  • 向军方开放技术,用于移民执法、监控和自主武器。

权力游戏

  • Altman个人投资400+公司,与前男友们存在复杂财务关系。
  • 被曝冻结投资竞争对手的投资者。
  • 从“有效利他主义”转向“有效加速主义”。
  • 与特朗普建立密切关系,捐赠100万美元就职基金。

一个关于诚信的70页备忘录

2023年秋天,Ilya Sutskever做了一件在硅谷极其罕见的事:他用手机偷拍公司内部文件,汇编成70页备忘录,发给董事会成员。

为什么要偷拍?因为他不敢在公司设备上留下痕迹。

备忘录以“消失消息”的方式发送,确保不会有人看到。一位收到备忘录的董事会成员回忆:“他吓坏了。”

iqPZBw8psrniFTXnDuCrvQ9pNYkar5etyeSRewxB.jpeg

这份从未完整公开的文件,开头是一个列表:“Sam exhibits a consistent pattern of...”

第一条:Lying。

说谎。

不是“沟通风格问题”,不是“过度乐观”,不是“愿景型领导者的特质”。就是两个字:说谎。

写下这份备忘录的人,2019年曾在OpenAI办公室主持Greg Brockman的婚礼,机器人手臂充当戒指递送员。他曾把Altman和Brockman都当作朋友。

但到2023年,当Sutskever相信AGI即将到来时,他对另一位董事会成员说:“我不认为Sam应该是那个手指放在按钮上的人。”

另一份200页的私人笔记

Dario Amodei离开OpenAI后联合创立了Anthropic。在那之前,他保留了多年关于Altman和Brockman的私人笔记。

超过200页的相关文件在硅谷流传,从未公开披露。

其中一份文件里,Amodei写道:Altman的话“几乎肯定是bullshit”。

MNNfhZ4n6sFe6HbNdbEwut52UJfxEmoA8Vhlw8Dw.jpeg

这不是竞争对手的恶意攻击。Amodei在2015年加入OpenAI之前,Altman曾在印度餐厅与他一对一晚餐。那次晚餐上,Altman向他保证:OpenAI会专注于安全,“也许不是马上,但会尽快”。

Amodei在笔记中记录了Altman的承诺。然后他用多年时间,记录这些承诺如何一个接一个被打破。

笔记的标题是“My Experience with OpenAI”,副标题:“Private: Do Not Share”。

五天政变与反政变

2023年11月17日,Altman在拉斯维加斯观看F1比赛。Sutskever邀请他视频通话,宣读了一份简短声明:他不再是OpenAI的员工。

董事会发布公告,措辞谨慎:Altman被解雇是因为他在“沟通中不够坦诚”。

微软投资了130亿美元,在Altman被解雇前几分钟才得知消息。CEO Satya Nadella后来说:“我非常震惊,我从任何人那里都问不出什么。”

Reid Hoffman开始打电话调查:“我不知道他妈的发生了什么。我们在找贪污、性骚扰,但什么都没找到。”

然后反击开始了。

Altman的2700万美元豪宅变成“流亡政府”。危机公关专家Chris Lehane加入,他的座右铭来自Mike Tyson:“每个人都有计划,直到被打了一拳。”

rBxn9iB3Vg44D8w3DbfjGFz8m40WkMrPX2ZTaRUw.jpeg

Lehane敦促Altman发动激进的社交媒体战役。Airbnb联合创始人Brian Chesky与科技记者Kara Swisher保持联系,传递对董事会的批评。

每天晚上6点,Altman会暂停“作战室”,来一轮内格罗尼鸡尾酒。“你需要冷静,”他回忆说,“该发生的总会发生。”

但他的通话记录显示:他每天打电话超过12小时。

投资公司Thrive暂停了原定的投资,暗示只有Altman回归才会完成交易。员工才能拿到数百万美元的股权兑现。

一封要求Altman回归的公开信在公司内部流传。一些犹豫签名的人接到同事恳求的电话和消息。最终,OpenAI大多数员工威胁要跟随Altman离开。

董事会被逼到墙角。Helen Toner说:“Control Z,这是一个选项”,撤销解雇。“或者另一个选项是公司分崩离析。”

c5GZjXEKK2pz0f0hw5EtrKMj1AllyD90w5q6AdA1.jpeg

甚至Mira Murati最终也签了信。她曾向Sutskever提供备忘录素材。

Brockman的妻子Anna在办公室找到Sutskever,恳求他重新考虑。“你是个好人,你可以修复这个,”她说。

Sutskever后来在法庭证词中解释:“我觉得如果我们走上Sam不回来的道路,OpenAI就会被摧毁。”

一天晚上,Altman吃了安眠药Ambien,被丈夫Oliver Mulherin叫醒,说Sutskever动摇了,人们让Altman跟董事会谈。“我在这种疯狂的Ambien迷雾中醒来,完全迷失方向,”Altman说,“我当时想,我现在不能跟董事会谈。”

在一系列越来越紧张的电话中,Altman要求解雇他的董事会成员辞职。

不到五天,Altman复职。

Sutskever、Toner、McCauley失去董事会席位。唯一留下的原董事会成员是Quora创始人Adam D'Angelo。

wLJAUA6f8URcYW8u9zTStWkhe5M33oAWykP5fogW.jpeg

作为退出条件,离职董事会成员要求对Altman的指控进行调查。他们还要求新董事会能够独立监督外部调查。

但两位新成员,前哈佛校长Lawrence Summers和前Facebook CTO Bret Taylor,是在与Altman密切协商后选定的。

“你愿意做这个吗,”Altman给Nadella发短信,“Bret、Larry Summers、Adam作为董事会,我作为CEO,然后Bret处理调查。”

员工现在把这一刻称为“Blip”,漫威电影中角色从存在中消失然后回归的事件。但世界已经因他们的缺席而深刻改变。

一场没有报告的调查

离职董事会成员的条件之一:必须有独立调查。

OpenAI聘请了WilmerHale律所,这家律所曾负责安然和世通的内部调查。

但六位接近调查的人士称:这场调查似乎被设计成限制透明度。

一些调查人员最初没有联系公司的重要人物。一位员工联系Summers和Taylor投诉。“他们只对董事会戏剧期间发生的事情感兴趣,而不是他诚信的历史,”这位员工回忆采访时的感受。

其他人不愿分享对Altman的担忧,因为他们觉得没有足够的匿名保护。“一切都指向他们想要找到的结果,就是宣判他无罪,”这位员工说。

企业调查的目的是赋予合法性。在私人公司,调查结果有时不会写下来,这可以限制责任。但在涉及公共丑闻的案例中,通常会有更高的透明度期望。

RpBbHxLlWLLJ0GcAaphwHQsRnaVHQro2dWNHIbsn.jpeg

在Travis Kalanick 2017年离开Uber之前,董事会聘请了外部公司,向公众发布了13页摘要。

鉴于OpenAI的501(c)(3)地位和解雇的高调性质,许多高管预期会看到详细的调查结果。

2024年3月,OpenAI宣布为Altman开脱,但没有发布报告。公司在网站上提供了大约800字,承认“信任破裂”。

参与调查的人士说:没有发布报告是因为根本没有写报告。

调查结果仅限于口头简报,分享给Summers和Taylor。

“调查并没有得出结论说Sam是诚信的乔治·华盛顿,”一位接近调查的人士说。但调查似乎没有把诚信问题作为Altman被解雇背后的核心,而是把大部分精力放在寻找明确的犯罪行为上。在此基础上,调查得出结论:他可以继续担任CEO。

NWHGQYUirH6yiOZz1VfSWY3HiLaUvo6WaTBPCdpi.jpeg

不久之后,Altman重新加入董事会。他在被解雇时被踢出董事会。

不制作书面报告的决定部分是根据Summers和Taylor的私人律师的建议做出的。

许多前任和现任OpenAI员工表示,他们对缺乏披露感到震惊。

Altman说他相信所有在他复职后加入的董事会成员都收到了口头简报。“这是彻头彻尾的谎言,”一位直接了解情况的人士说。

一些董事会成员表示,关于报告完整性的持续质疑可能会促使“需要进行另一次调查”。

安全承诺的系统性崩塌

OpenAI成立时的核心承诺:如果AI可能是人类历史上最危险的发明,那么安全必须优先于一切。

2023年春天,OpenAI宣布成立“超对齐团队”,由Jan Leike和Sutskever领导。公司承诺将“我们迄今获得的20%算力”投入这个团队,潜在价值超过10亿美元。

这个承诺蒸发了。

四位在该团队工作或与该团队密切合作的人士说:实际资源在公司算力的1%到2%之间。

而且,一位团队研究员说:“大部分超对齐算力实际上在最旧的集群上,用的是最差的芯片。”

研究人员认为,更好的硬件被保留用于创收活动。

Leike向当时的CTO Mira Murati抱怨,但她告诉他别再提这件事,这个承诺从来就不现实。

4BbOlbUMgCdjsQdziO919hJgsxAcDIrQi2sF7BWm.jpeg

2022年12月的一次会议上,Altman向董事会保证,即将推出的GPT-4模型中的各种功能已获得安全小组批准。

董事会成员Helen Toner要求提供文件。她发现最具争议的功能,一个允许用户为特定任务“微调”模型的功能,以及另一个将其部署为个人助理的功能,实际上并未获得批准。

当McCauley离开会议时,一名员工把她拉到一边,问她是否知道印度的“违规”。Altman在与董事会的多小时简报中,没有提到微软在印度发布了ChatGPT的早期版本,而没有完成所需的安全审查。

“这完全被忽略了,”当时的OpenAI研究员Jacob Hilton说。

2023年,公司准备发布GPT-4 Turbo模型。根据Sutskever备忘录的详细说明,Altman显然告诉Murati该模型不需要安全批准,引用了公司总法律顾问Jason Kwon的话。

但当她通过Slack询问Kwon时,他回复:“呃……困惑Sam从哪里得到这个印象。”

GPT-4发布后,Leike给董事会成员发邮件。“OpenAI在其使命上已经偏离轨道,”他写道。“我们将产品和收入置于一切之上,其次是AI能力和研究和扩展,对齐和安全排在第三位。”

他继续写道:“像谷歌这样的其他公司正在学习,他们应该更快地部署并忽略安全问题。”

超对齐团队在2024年被解散,没有完成其使命。Sutskever和Leike辞职。

Leike在X上写道:“安全文化和流程已经让位于闪亮的产品。”

kkv07yAZmMjYPEcHyQq1VPcOyFgsriEAv6bCqf3C.jpeg

不久之后,AGI准备团队,负责让社会为先进AI的冲击做好准备,也被解散。

当公司在最近的IRS披露表格上被要求简要描述其“最重要的活动”时,安全这个概念,在之前表格的答案中出现过,没有被列出。

OpenAI说其“使命没有改变”,并补充说:“我们继续投资并发展我们在安全方面的工作,并将继续进行组织变革。”

生命未来研究所(Future of Life Institute)是一个智库,其安全原则Altman曾经背书。该机构对每家主要AI公司的“存在性安全”进行评分。

在最近的成绩单上,OpenAI得了F。

公平地说,除了Anthropic(得D)和Google DeepMind(得D-)之外,其他所有主要公司也都得了F。

“我的感觉与很多传统AI安全的东西不匹配,”Altman说。他坚称自己继续优先考虑这些问题,但当被要求提供具体细节时,他含糊其辞:“我们仍然会运行安全项目,或者至少是与安全相邻的项目。”

当记者要求采访公司内部从事存在性安全工作的研究人员时,Altman曾说过的那种可能意味着“我们所有人都熄灯”的问题,一位OpenAI代表似乎很困惑。

“你说的存在性安全是什么意思?”他回答,“那不是,比如,一个东西。”

地缘政治的危险游戏

2017年夏天,Altman在与美国情报官员的会议上声称,中国启动了“AGI曼哈顿项目”,OpenAI需要数十亿美元的官方资金才能跟上。

当被要求提供证据时,Altman说:“我听说了一些事情。”

这是他提出这一说法的几次会议中的第一次。在其中一次会议后,他告诉一位情报官员他会跟进提供证据。

他从未这样做。

这位官员在调查中国项目后得出结论:没有证据表明它存在。“这只是被用作销售话术。”

Altman说他不记得以这种方式描述北京的努力。

但“曼哈顿项目”的类比一直在使用。根据受访者和同期记录,2017年,Brockman提出了一个反提案:OpenAI可以通过让世界大国,包括中国和俄罗相互竞争来致富,也许可以在它们之间发起竞标战。

当时的政策和伦理顾问Page Hedley回忆说,这个想法似乎是:“核武器奏效了,为什么AI不行?”

他震惊了:“前提是,他们没有反驳,‘我们在谈论可能是有史以来最具破坏性的技术,如果我们把它卖给普京会怎样?’”

Brockman坚称他从未认真考虑官方拍卖AI模型。OpenAI代表说:“关于什么样的潜在框架可能鼓励国家间合作的想法在高层讨论过,类似于AI的国际空间站。试图将其描述为更多的东西是完全荒谬的。”

头脑风暴会议经常产生离谱的想法。Hedley希望这个被称为“国家计划”的想法会被放弃。

相反,根据几位参与者和同期文件,OpenAI高管似乎对此越来越兴奋。

当时的政策主管Jack Clark说,Brockman的目标是“基本上建立一个囚徒困境,所有国家都需要给我们资金”,而且“隐含地使不给我们资金变得有点危险”。

一位初级研究员回忆说,当这个计划在公司会议上详细说明时,他想:“这完全他妈的疯了。”

高管们至少与一位潜在捐赠者讨论了这种方法。但那个月晚些时候,在几名员工谈论辞职后,该计划被放弃。

“他会失去员工,”Hedley说。“我觉得这在Sam的计算中总是更有分量,而不是‘这不是一个好计划,因为它可能导致大国之间的战争’。”

中东的金钱与权力

Altman的筹款目标最初是沙特阿拉伯。

他在2016年旧金山费尔蒙酒店的晚宴上第一次见到王储穆罕默德·本·萨勒曼。之后,Hedley回忆说,Altman称王储为“朋友”。

2018年9月,Hedley的笔记显示,Altman说:“我在考虑我们是否会从沙特PIF(公共投资基金)拿数百亿美元。”

次月,据报道在本·萨勒曼命令下,一个暗杀小组勒死了《华盛顿邮报》记者贾马尔·卡舒吉,并用骨锯肢解了他的尸体。

一周后,宣布Altman加入了Neom的咨询委员会,本·萨勒曼希望在沙漠中建造的“未来之城”。

“Sam,你不能在这个董事会上,”现在在Anthropic工作的Clark回忆告诉Altman。他最初为自己的参与辩护,告诉Clark,Jared Kushner向他保证沙特人“没有做这件事”。

Altman不记得这件事。Kushner说他们当时没有联系。

uNgCh4KIIh9N9S1VrlM065K3ZLpMntAA2o1Y3TvQ.jpeg

随着本·萨勒曼的角色越来越清晰,Altman离开了Neom董事会。但在幕后,一位Altman寻求建议的政策顾问回忆说,他把这种情况当作暂时的挫折,询问他是否仍然可以从本·萨勒曼那里拿到钱。

“问题不是‘这是坏事还是不是?’”这位顾问说。“而是,‘如果我们这样做会有什么后果?会有出口管制问题吗?会有制裁吗?比如,我能逃脱吗?’”

到那时,Altman已经盯上了另一个现金来源:阿联酋。

2023年秋天,Altman开始悄悄为一个计划招募新人才,最终被称为ChipCo。海湾国家将提供数百亿美元用于建造巨大的微芯片工厂和数据中心,其中一些将位于中东。

Altman向Alexandr Wang(现任Meta AI负责人)推销领导角色,告诉他亚马逊创始人Jeff Bezos可以领导这家新公司。Altman向阿联酋人寻求巨额捐款。

“我的理解是,整个事情在没有任何董事会知情的情况下发生,”一位董事会成员说。

Altman试图招募的研究员James Bradbury回忆拒绝了他。“我的第一反应是‘这会成功,但我不知道我是否希望它成功’,”他说。

AI能力可能很快会取代石油或浓缩铀,成为决定全球权力平衡的资源。Altman说算力是“未来的货币”。

通常,数据中心位于何处可能并不重要。但许多美国国家安全官员对在海湾专制国家集中先进AI基础设施感到焦虑。

阿联酋的电信基础设施严重依赖华为的硬件,这家中国科技巨头与官方有联系。据报道,阿联酋过去曾向北京泄露美国技术。

情报机构担心,发送给阿联酋人的先进美国微芯片可能会被中国工程师使用。

中东的数据中心也更容易受到军事打击。最近几周,伊朗轰炸了巴林和阿联酋的美国数据中心。

Altman被解雇后,他最依赖的人是Chesky,Airbnb联合创始人和Altman最忠诚的支持者之一。次年,在Y Combinator校友聚会上,Chesky做了一次即兴演讲,最终

免责声明:

1.资讯内容不构成投资建议,投资者应独立决策并自行承担风险

2.本文版权归属原作所有,仅代表作者本人观点,不代币币情的观点或立场