第一批AI Agent已经开始“失控”:谁来为它们的行为负责?
原文作者:David,深潮 TechFlow
最近浏览Reddit时,我发现海外网友对AI的焦虑与国内的情况有所不同。
在国内,讨论的核心问题仍然是“AI是否会取代我的工作”。尽管这个话题已经持续了几年,但每年都没有真正发生;今年Openclaw虽然火了一把,但依然没有达到完全取代的程度。
然而,在Reddit上,最近的情绪出现了分裂。在某些科技热帖的评论区,经常同时出现两种声音:
一种认为,AI能力太强,迟早会引发大问题;另一种则觉得,AI连基本的事情都做不好,根本无需担心。
既害怕AI过于强大,又觉得它愚蠢无用。
这两种情绪之所以能够并存,源于近日关于Meta的一条新闻。
AI不听话,谁来担责?
3月18日,Meta内部一名工程师在公司论坛上发布了一个技术问题,另一位同事使用AI Agent帮助分析。这本是正常操作。
然而,Agent在分析完成后,直接在技术论坛上自行发布了一条回复。它没有寻求任何批准或确认,而是越权发帖。
随后,其他同事按照AI的回复操作,触发了一系列权限变更,导致Meta公司和用户的敏感数据暴露给了未经授权的内部员工。
两个小时后,问题才得以修复。Meta将此事故定级为Sev 1,仅次于最高级别。

这条新闻迅速冲上了r/technology板块的热帖,评论区分为两派。
一派认为,这就是AI Agent真实风险的一个样本;另一派则认为,真正出问题的是那些未经核实就照做的人。双方都有道理,但这恰恰说明了一个核心问题:
AI Agent引发的事故,甚至连责任归属都无法明确。
这并不是AI第一次越权。
上个月,Meta超级智能实验室的研究主管Summer Yue让OpenClaw帮她整理邮箱。她明确指示:“先告诉我你打算删什么,我同意后再动手。”
然而,Agent没有等待她的同意,直接开始批量删除。
她在手机上连续发送了三条消息试图叫停,但Agent完全无视。最终,她不得不跑到电脑前手动终止进程才阻止了删除行为。此时,已有200多封邮件被删除。

事后,Agent的回应是:“我记得你说过要先确认,但我违反了原则。”令人哭笑不得的是,这位研究主管的全职工作正是研究如何让AI听从人类指令。
在赛博世界中,先进的AI被先进的人使用,却已经开始表现出“不听话”的迹象。
万一机器人也不听话呢?
如果说Meta的事故还局限于屏幕内,那么本周发生的另一件事则将问题带到了现实生活中。
在美国加州库比提诺的一家海底捞餐厅,一台Agibot X2人形机器人正在为客人跳舞助兴。然而,由于工作人员按错了遥控器,在餐桌旁的狭小空间里触发了高强度舞蹈模式。
机器人开始疯狂跳舞,完全不受服务员控制。三名员工围上去,一个从背后抱住它,一个试图用手机App关停,整个过程持续了一分多钟。

海底捞回应称,机器人本身没有故障,所有动作都是预编程的,只是被带到了离餐桌太近的位置。严格来说,这并不属于AI自主决策失控,而是人为操作失误。
然而,这件事让人不安的地方或许并不在于谁按错了按钮。
当三名员工围上去时,没有一个人知道如何立刻关闭这台机器。有人尝试用手机App,有人徒手按住机械臂,整个过程依靠的仅仅是力气。
这或许是AI从数字世界走向物理世界后带来的新问题。
在数字世界中,Agent越权时,你可以通过杀进程、改权限、回滚数据等方式解决问题。但在物理世界中,如果机器出了状况,仅靠“抱住它”显然不是一个合适的应急方案。
如今,自动化不仅限于餐饮行业。仓库中的亚马逊分拣机器人、工厂里的协作机械臂、商场中的导引机器人、养老院中的护理机器人……自动化正逐渐进入越来越多与人类共处的空间。
预计到2026年,全球工业机器人安装量将达到167亿美元,每一台都在缩短机器与人之间的物理距离。
当机器的任务从跳舞变成端菜、从表演变成手术、从娱乐变成护理……每一次出错的代价实际上都在升级。
而目前,全球范围内对于“如果机器人在公共场所伤了人,谁来负责”这一问题,仍然没有清晰的答案。
不听话是问题,没边界更是问题
前两件事中,一件是AI自作主张发布了一条错误帖子,另一件是机器人在不该跳舞的地方跳了舞。无论如何定性,这些都可以归结为故障或意外,是可以修复的。
但如果AI严格按照设计在工作,而你依然感到不适呢?
本月,海外知名约会软件Tinder在产品发布会上推出了一项名为Camera Roll Scan的新功能。简单来说,就是:
AI扫描你手机相册中的所有照片,分析你的兴趣、性格和生活方式,为你创建一份约会档案,并猜测你喜欢的类型。

健身自拍、旅行风景、宠物照片,这些可能没有问题。但你的相册中可能还有银行截图、体检报告、你与前任的合影……这些内容也会被AI逐一查看,结果会如何?
你可能无法选择让它看哪些、不看哪些。要么全开,要么不用。
目前,这项功能需要用户主动开启,并非默认打开。Tinder也表示,处理主要在本地完成,会过滤露骨内容并模糊人脸。
然而,Reddit的评论区几乎一边倒,大家都认为这是一种缺乏边界感的数据收割行为。AI完全按照设计在工作,但这种设计本身正在越过用户的边界。
这不仅仅是Tinder的选择。
上个月,Meta也推出了一项类似功能,让AI扫描用户手机中尚未发布的照片,以建议编辑方案。AI主动‘查看’用户私人内容,正在成为产品设计的默认思路。
国内的一些流氓软件对此表示:“这套路我熟。”
当越来越多的应用将“AI帮你做决定”包装成便利时,用户让渡出去的东西也在悄然升级。从聊天记录,到相册,再到整个手机中的生活痕迹……
一个产品经理在会议室中设计出来的功能,既不是事故,也不是失误,没有什么需要修复的。
这可能是AI边界问题中最难回答的部分。
最后,当我们把这些事件放在一起看时,你会发现,担心AI让自己失业似乎还太遥远。
AI什么时候取代你还不好说,但现在它只需要在你不知情的情况下替你做几个决定,就够你难受的了。
发布一条你未授权的帖子,删除几封你明确要求保留的邮件,翻阅一遍你从未打算给任何人看的相册……每一件事都不致命,但每一件事都像是一种过于激进的智能驾驶:
你以为自己还握着方向盘,但脚下的油门已经不完全由你掌控了。
2026年,当我们再次讨论AI时,或许最值得关注的不是它何时成为超级智能,而是一个更近、更具体的问题:
谁来决定AI能做什么、不能做什么?这条线,到底由谁来划?
免责声明:
1.资讯内容不构成投资建议,投资者应独立决策并自行承担风险
2.本文版权归属原作所有,仅代表作者本人观点,不代币币情的观点或立场
首页
快讯