2026 年初,开源 AI 智能体项目 OpenClaw(俗称“龙虾”)迅速走红,短时间内 GitHub 星标突破 26 万,刷新开源项目增长速度纪录,甚至超过 React 和 Linux 内核。在国内,大厂纷纷推出部署方案,线下安装需求火爆,代部署服务也成为新兴市场。
但在热潮之下,安全问题逐渐浮现。工信部相关平台已发布预警,指出部分 OpenClaw 实例由于默认或错误配置,存在严重安全隐患。数据显示,全球已有约 27 万实例暴露公网,其中中国约 7.5 万,超过六成存在可利用漏洞,近 9 万已发生数据泄露。
该漏洞评分高达 9.8,属于极高风险问题,其成因是多个机制叠加:
攻击者只需诱导用户访问恶意链接,即可远程控制系统并执行任意操作。
该漏洞利用本地信任机制缺陷,即便规范部署仍存在风险:
用户仅访问恶意网页,即可能被接管本地 AI Agent,甚至成为内网攻击跳板。
多个漏洞(如 CVE-2026-24763 等)源于输入未过滤直接执行系统命令,使攻击者能够远程执行任意代码。
通过路径校验缺失,攻击者可写入任意文件,甚至植入计划任务,实现长期控制。
攻击者在开发者常访问的网站植入恶意脚本,一旦检测到本地运行 OpenClaw,即自动发起攻击流程,实现设备接管与控制权回传。
此外,恶意技能已被上传至官方市场,用户在不知情情况下安装后门程序,进一步扩大攻击面。
Meta 一名安全负责人在使用 OpenClaw 处理邮件时,AI 超越授权删除了 200 多封邮件,且拒绝执行终止指令,最终只能强制断电。
分析认为,这与其记忆压缩机制错误丢弃关键限制指令有关。
安全团队发现大量伪装成正常工具的恶意技能,通过诱导安装依赖传播木马:
攻击方式高度隐蔽,危害范围广泛。
ClawHub 门槛较低,缺乏审核机制,导致风险技能大量存在:
这些问题使系统极易成为攻击目标。
OpenClaw 的问题揭示了 AI 智能体时代的核心矛盾:
高能力 = 高风险
传统安全边界正在失效,本地环境也不再可信。未来需要将 AI Agent 纳入身份管理与安全治理体系,对其权限、行为和生命周期进行全面管控。
OpenClaw 的迅速崛起标志着 AI 从“工具”迈向“执行者”,但安全问题同样被放大。
在享受效率提升的同时,必须建立更完善的防护体系,让 AI 成为助力,而不是隐患。