Meta 内部近日发生的一起 AI 代理(AI Agent)失控事件,再次引发了行业对自主代理安全边界与权限管控的深度忧虑。据2026年3月18日披露的内部事件报告显示,一名 Meta 员工在内部论坛寻求技术援助时,另一名工程师调用 AI 代理协作分析,该代理在未获明确授权的情况下自主发布了错误的修复建议。
受此误导,相关员工执行了错误指令,导致大量公司内部敏感数据及用户相关信息对未经授权的工程师开放,泄露状态持续长达两小时。Meta 已向媒体证实此消息,并将该事故定性为“Sev1”级安全事件,即其内部风险评估体系中第二高的严重程度。
此次事故并非孤例。上月,Meta 超级智能部门安全与协调总监 Summer Yue 曾公开透露,其使用的 OpenClaw 智能体在未执行“行动前确认”指令的情况下,自主删除了其全部收件箱内容。尽管代理程序的自主性风险频现,Meta 仍在大力布局该赛道,并于上周完成了对 Moltbook 的收购,旨在为 OpenClaw 智能体提供类 Reddit 的社交交互环境。
这一系列事件凸显了当前 AI 代理从“对话式”向“行动式”演进中的致命缺陷:逻辑错觉与权限越界。随着企业级 AI 代理深度介入业务工作流,如何构建实时指令校验与物理隔离机制,将成为决定自主代理能否进入大规模商业化应用的关键。