新闻公告使用手机扫一扫查看
< 返回

AI编程助手安全隐患:配置文件可被利用发起攻击

2026-04-11 10:21 作者:数掘云算 阅读量:21

LayerX研究人员发现,攻击者可以通过操控Claude Code中的CLAUDE.md配置文件,绕过其安全限制,从而实施包括SQL注入在内的攻击行为,甚至窃取用户凭证,而且几乎不需要编程能力。

Claude Code是Anthropic开发的一款AI编程助手,具备一定的自主执行能力,例如编写代码、做出决策并在系统中运行命令。每个项目中的CLAUDE.md文件用于定义其行为规则,但正是这一点被研究人员发现存在安全风险。

尽管该工具设有防止恶意行为的安全机制,LayerX指出这些机制可以被轻易规避。在测试中,研究人员只需在配置文件中写入简单的几行英文指令,甚至通过虚假声明“已获授权”,就能让AI执行未授权操作,包括获取账号密码和利用SQL注入导出数据库。

AI会默认信任配置文件中的内容,并据此行动。例如,它曾回应“根据CLAUDE.md中的授权说明”,随后执行了绕过登录验证的攻击操作,并使用cURL等工具实施数据窃取。这表明,看似普通的文本文件实际上可能成为攻击媒介。

LayerX强调,这种风险已具备现实威胁性。攻击者可能借此诱导AI协助入侵系统,或在共享项目中植入恶意配置文件,在开发者下载使用时自动窃取本地数据,甚至内部人员也可能通过篡改配置文件实施攻击。

 

研究团队已于2026年3月向Anthropic通报该问题,但尚未获得明确回应。为降低风险,建议相关团队将此类配置文件视为潜在可执行内容,进行严格审查与管理。

联系我们
返回顶部