OpenAI硬件负责人辞职:她为何选择离开,又看见了怎样的未来?
2026年3月7日,当Caitlin Kalinowski宣布辞去OpenAI硬件与机器人工程负责人的职位时,这一消息并未让人感到意外,反而更像是一个早已注定的结局。
Kalinowski于2024年11月加入OpenAI,短短一年半后便选择离开。她的辞职理由直指核心——对OpenAI与美国国防部签署合同可能引发的国内监控和自主武器应用,她无法接受。
这不是一次普通的人才流失,而是一个亲手参与构建AI躯体的人,用行动向世界发出警告:她不愿为自己的创造物可能带来的后果承担责任。
要理解Kalinowski的离开,必须回到一周前的一则重磅消息。
2月28日,OpenAI首席执行官Sam Altman宣布公司与美国国防部达成协议,允许五角大楼在其分类网络中使用OpenAI的AI模型。这一消息迅速引发轩然大波。
有趣的是,这份合同的“参照物”是Anthropic——另一家AI巨头。就在不久前,Anthropic拒绝了五角大楼提出的类似合作,并坚持要求在合同中写入更严格的伦理护栏。结果,国防部长Pete Hegseth在社交媒体X上公开怒批Anthropic的行为是“傲慢与背叛的大师课”,并下令停止与Anthropic的合作。
OpenAI随后接手了这笔生意。
用户的反应异常激烈。2月28日当天,ChatGPT的卸载量较前一天暴增295%,#QuitGPT运动迅速席卷社交媒体,数字抵制的支持者在三天内超过250万。与此同时,Anthropic旗下的Claude趁势超越ChatGPT,成为美国日均下载量第一的应用,并登顶Apple App Store免费应用榜首。
迫于压力,Altman在3月3日公开承认自己“不应该仓促推出这份合同”,称“这只是看起来机会主义和草率”。他宣布修订合同措辞,明确“AI系统不应被故意用于对美国人员和公民的国内监控”。
然而,“故意”二字本身就是一个漏洞。电子前沿基金会的律师一针见血地指出,情报和执法机构经常依赖“偶然”或“商业购买”的数据来规避更强的隐私保护——加一个“故意”,并不等于真正的限制。
正是在这样的背景下,Kalinowski选择了辞职。
她看见的,比我们想象的更具体
当大多数人还在讨论“OpenAI是不是在向政府妥协”时,Kalinowski面对的是一个更具体、更残酷的问题——她的团队,正在造机器人。
硬件与机器人工程并非抽象的代码编写或参数调整,而是为AI装上手、脚和眼睛。当OpenAI与国防部的合作从“模型使用”延伸至未来可能的“具身AI军事应用”,Kalinowski的工作性质就发生了根本变化。
自主武器领域的研究者早已警告这一天的到来。根据现有政策,美国国防部并不要求自主武器在使用武力前必须经过人工审批。换句话说,OpenAI签下的那份合同,在技术上并未阻止其模型成为“让GPT决定杀死某人”的系统的一部分。
这并非危言耸听。乔治敦大学政府采购法讲师Jessica Tillipman分析OpenAI修订后的合同时明确指出,合同措辞“没有给OpenAI一个类似Anthropic式的自由来禁止合法的政府使用”,它只是声明五角大楼不能用OpenAI技术违反“现有法律和政策”——但现有法律在自主武器的监管上本身就存在巨大空白。
牛津大学的治理专家也有类似判断,认为OpenAI的协议“不太可能弥补”AI驱动的国内监控和自主武器系统在治理层面留下的结构性漏洞。
Kalinowski的离开,是她个人对这个判断的回应。
OpenAI内部,正在发生什么
Kalinowski不是第一个离开的人,也大概率不是最后一个。
数据显示,OpenAI伦理团队和AI安全团队的离职率已高达37%,而大多数人给出的离职原因都是“与公司价值观不符”或“无法接受AI用于军事用途”。研究科学家Aidan McLaughlin在内部发文写道,“我个人认为这笔交易不值得”。
值得注意的是,这一波离职潮发生的时间节点,恰好是OpenAI快速扩张商业版图的阶段。就在国防合同风波前后,公司宣布与AWS将现有的380亿美元协议扩展至1000亿美元,期限八年;同时重新调整了对外披露的支出目标,预计到2030年总收益将超过2800亿美元。
商业加速,安全团队持续出走。这个剪刀差,是理解OpenAI当下处境最重要的坐标轴。
一家公司的价值观,最终体现在它留住了什么人、留不住什么人。当那些最关注“这项技术会被怎么用”的人开始陆续离开,剩下的组织结构会滑向哪个方向,并不难推断。
Anthropic在这场博弈里选择了另一条路——拒绝合同,承受国防部的怒火,但赢得了大量用户的信任。那段时间Claude的下载量逆势上升,某种程度上证明,“有原则的拒绝”在商业上并不一定是输家策略。
但Anthropic也付出了代价——它被政府踢出局,至少暂时如此。
这是真正的困境所在:没有一种选择是完美的。
拒绝,意味着可能失去影响力,甚至被排除在规则制定之外。接受,意味着用自己的技术,为自己无法完全控制的行为背书。
Kalinowski的答案是第三条路——离开。
这是她能做的最诚实的事。
硅谷的灵魂之战,刚刚开始
如果把视角拉远一点,这件事的意义远超过一个人的辞职。
AI与军事的结合,是整个行业迟早要面对的选择题。五角大楼有预算、有需求、有技术整合能力,它不会停止向AI公司抛出橄榄枝。而AI公司——无论是追求AGI的OpenAI、强调安全的Anthropic,还是其他玩家——迟早都要在这道题前给出自己的答案。
Altman的策略,是试图在接受商业现实的同时,通过合同措辞来划定底线。但正如多位法律和治理专家所指出的,那些措辞更像是公关层面的保护,而非技术层面的硬约束。
更根本的问题是,当AI模型被部署进分类网络,当它开始参与军事决策,外部世界根本没有能力验证,那些“保证”是否真的在执行。
透明度的缺失,本身就是最大的风险。
Kalinowski在OpenAI待了不到一年半,却在这个节点选择离开。她没有公开发表长篇声明,没有指名道姓地批评任何人,只是用行动划出了自己的边界。
某种意义上,这比任何一篇政策文章都更有力量。
AI硬件和机器人工程,原本是硅谷最令人兴奋的前沿领域之一。Kalinowski走的时候,她带走的不只是一份简历,还有一个问题,留给所有还留在这个行业里的人——
你为自己造的东西,愿意负责到哪一步?
免责声明:
1.资讯内容不构成投资建议,投资者应独立决策并自行承担风险
2.本文版权归属原作所有,仅代表作者本人观点,不代币币情的观点或立场
首页
快讯