奥特曼的双重下注:豪宅遇袭背后,怀俄明地堡成最后防线

华雨欢2 小时前
公开押注AI会成功,私下准备AI会失控。

2016年,山姆·奥特曼在怀俄明州地下秘密建造了一座地堡。这座地堡占地1,200平方米,分为三层结构,内部储备了500公斤黄金、5,000片碘化钾、5吨冻干食品以及10万发子弹。那一年,OpenAI刚刚成立一周年。

十年之后,这位世界上最有权力的AI公司掌门人连续两个周末遭遇袭击,先是燃烧瓶,后是枪击。他在博客中写道:“我严重低估了叙事的力量。”但他没有明确说明,这究竟是别人的叙事,还是他自己的?

48小时,两次袭击

4月10日凌晨3时40分,旧金山切斯纳特街。一名20岁的男子Daniel Moreno-Gama将一只燃烧瓶砸向山姆·奥特曼公寓的金属大门。火势引燃了外门附近区域,随后他逃离现场。约一小时后,同一人出现在OpenAI旧金山办公室附近,继续威胁纵火,随即被捕。他被指控谋杀未遂和纵火。

奥特曼不怕豪宅遭袭,他还有一座地堡

两天后,4月12日凌晨1时40分,一辆本田轿车停在奥特曼位于俄罗斯山的另一处住所旁。车内乘客将手伸出窗外,向住所开了一枪。监控录像记录了车牌信息,警方随后逮捕两名嫌疑人:Amanda Tom(25岁)和Muhamad Tarik Hussein(23岁)。搜查住所时发现三支枪,两人被控过失开枪罪。

一个周末,两起袭击。

嫌疑人的动机:AI悲观主义者的行动指令

第一次袭击的嫌疑人Daniel Moreno-Gama是一名AI悲观主义者。他在社交媒体上引用《沙丘》中人类对抗机器的主题,撰写文章论证AI对齐失效可能构成存亡级风险,并批评科技领袖为追求“超人类主义”而“拿全人类命运豪赌”。他的论据来自何处?

奥特曼不怕豪宅遭袭,他还有一座地堡

过去五年,OpenAI建构AI叙事的标准动作之一,就是反复强调AGI(通用人工智能)的“存在级”威胁有多真实。这种话语让OpenAI在三件事上同时成立:前沿最危险、我们最负责任、所以资金应该给我们。但“这是人类历史上最危险的技术”这句话,一旦传播开来,不会只停留在科技圈和投资人那里。它会向下传导,在某些人那里变成字面意义上的行动指令。

Moreno-Gama在社交媒体上分享的内容写道:“指数级进步加上对齐失效,等于存亡风险。”这一论证框架的原始来源正是AI安全研究的主流文献,其中许多由OpenAI资助或背书。

奥特曼的反思与回应

第一次袭击后,奥特曼在博客发文。他贴了一张与孩子的合照,表示希望这张照片能阻止下一个人向他家扔燃烧瓶。他承认反对者的“合法道义立场”,呼吁公共讨论“在字面和比喻意义上都少一点爆炸性”。

他还在回应一篇《纽约客》深度报道。这篇报道在袭击前数天发布,公开质疑他作为AI最高权力掌控者的可信度。他写道:“我严重低估了舆论叙事和言语的力量。”然而,两天后,他的住所再次遭到枪击。

安保预算与地堡:双重下注的体现

这条轨迹的起点比大多数人意识到的要早一年。

2024年12月4日,纽约。UnitedHealthcare CEO Brian Thompson在希尔顿酒店外被枪杀。嫌疑人Luigi Mangione,常春藤名校毕业,留下了批判医疗保险行业的手写声明。案件在社交媒体上引发了一波不寻常的反应:大量普通用户公开表达对凶手的同情,甚至把他捧成了某种反抗符号。

那一刻,有些门被推开了。

Thompson案之后,高管安保从“福利待遇”变成了“生存需求”。根据《财富》杂志引用的调研数据,2023年以来,针对大企业高管的人身犯罪袭击比例增幅达225%。标普500成分公司中,2025年有33.8%在财报中报告了高管安全支出,2020年这个数字仅为23.3%。提供安保服务的公司中位数成本为13万美元,同比增长20%,五年内翻倍。

AI行业是这一趋势最新、最显眼的接收端。十大科技巨头CEO在2024年的安保支出总计超过4,500万美元。扎克伯格一人超过2,700万美元,高于苹果、谷歌等四家CEO费用的总和。英伟达黄仁勋2025年的安保支出为350万美元,同比增长59%;谷歌皮查伊为827万美元,增长22%。

AI行业有个别的行业没有的东西,那就是连建造者自己都相信,这项技术可能毁灭文明。皮尤研究中心2025年调查了全球28,333名受访者,只有16%对AI发展感到兴奋,34%表示担忧。更反直觉的发现是:受教育程度越高、收入越高,对AI失控的担忧反而越强。懂得最多的人,最害怕它。

前不久,印第安纳波利斯市议员Ron Gibson的住宅遭枪手在深夜连射13枪,他的8岁儿子被枪声惊醒。门口留着一张手写纸条:“不准建数据中心。”FBI已介入调查。乔治华盛顿大学极端主义研究项目的研究员Jordyn Abrams指出,数据中心正在成为反科技、反政府极端分子的攻击目标。

奥特曼不怕豪宅遭袭,他还有一座地堡

这种恐惧在行业内部不是秘密,只是不被大声说出来。

奥特曼在怀俄明州建那座地堡是2016年。那一年,OpenAI刚刚宣告成立,正在向全世界描绘AI将如何造福人类。两件事同时成立,他在台上讲AI是人类最大的机遇,在私下囤积足够支撑一支武装民兵的弹药。

这是一种理性的双重下注:公开押注AI会成功,私下准备AI会失控。

回旋镖效应:奥特曼的困境

今年2月27日,OpenAI与美国国防部签署合同,允许五角大楼将ChatGPT部署于机密防务网络,使用范围涵盖“任何合法用途”。同一天,奥特曼还公开表示认同Anthropic对AI军事应用的限制立场。随后ChatGPT单日卸载量激增295%,一星评价24小时内增加775%。QuitGPT抵制运动据称累计超过150万人参与。

3月21日,约200名抗议者在旧金山游行,横跨Anthropic、OpenAI和xAI,要求三家CEO承诺暂停前沿AI开发。同期,伦敦出现了迄今规模最大的反AI游行。

奥特曼的怀俄明州地堡和他雇用的安保,针对的是两种不同的风险:一种来自外面的人,一种来自他自己正在建造的东西。他在私下认真对待这两种风险,在公开场合只承认其中一种。

第一次袭击发生的同一周,《纽约客》刊发了一篇对奥特曼的深度报道。记者Ronan Farrow和Andrew Marantz采访了逾100名知情人,核心论点只有两个字:不可信。报道援引一位前OpenAI董事会成员的话,称奥特曼是“反社会人格”,“不受真相约束”。多位前同事描述他反复改口关于AI安全的立场,在必要时重新定义权力结构。

奥特曼在博文里回应时,承认自己有“冲突回避”的倾向。他建构了“AI是存在级威胁”的公共叙事,作为募资和监管博弈的工具。结果这个工具从他手里飞了出去,绕了一圈,砸回了他的门上。

免责声明:

1.资讯内容不构成投资建议,投资者应独立决策并自行承担风险

2.本文版权归属原作所有,仅代表作者本人观点,不代币币情的观点或立场