2025年12月22日,快手遭受大规模攻击事件在一夜之间引发行业震动,“自动化攻击”由此进入公众视野。长期依赖特征识别、规则拦截等方式构建的传统安全防护体系,在高度组织化、系统化的攻击面前暴露出明显短板。当前的外部自动化攻击已呈现出强烈的计划性和协同性,其资源投入与行动复杂度,甚至可与国家级网络行动相提并论。针对这类外部威胁,业内已有大量专业分析,本文不再赘述。
本文关注的是同样危险却更具隐蔽性的风险来源——自动化攻击环境中的内部威胁,即由内部人员或内部系统引发的安全事件,这一问题同时也是合规治理中最难处理的领域之一。
在自动化攻击尚未普及的阶段,内部人员实施的网络攻击往往源自个人动机,例如报复、炫耀技术能力或非法获利,其表现形式主要集中于职务侵占、侵犯商业秘密或个人信息犯罪。此类内部攻击大致可分为两类。
该类型通常由单一内部人员独立完成。例如,2024年7月,上海某企业前研发工程师利用其掌握的高权限账户及系统运行逻辑,对公司两台关键服务器实施攻击,导致相关业务系统瘫痪近200小时。该行为已被检察机关以破坏计算机信息系统罪提起公诉。
此类行为往往属于企业舞弊的重要表现形式,广泛存在于互联网、制造、物流、金融、能源及零售等行业,是个人信息被大规模倒卖、商业秘密持续泄露以及权力寻租等违法行为的重要环节。
以游戏行业为例,部分员工或外包人员擅自向外泄露未上线角色的技能画面、实机演示视频等尚未公开的内容,甚至通过社交软件向特定对象传输敏感信息,导致严重泄密风险。这类案件对企业反舞弊制度的完整性、监测能力以及法律追责机制形成综合考验。
在传统工业领域,同类问题同样存在。例如,2023年某煤电企业发生非法控制计算机信息系统案件,多名嫌疑人内外勾结,侵入煤炭采样设备操作区域,通过拷贝和篡改控制程序、加装硬件并远程操控机械臂,规避质量检测,将劣质煤伪装成高热值煤炭出售。案件的侦办难点,在于如何识别高度技术化、流程化分工背后的违法实质。
此外,在开设赌场等黑灰产案件中,随着组织规模扩大、公司化运作加深,其隐蔽性和复杂性进一步增强,不少普通从业者在不自知的情况下被卷入违法活动,最终承担严重法律后果。
如果说传统内部舞弊尚可通过完善制度与执法力度进行约束,那么在自动化攻击环境中,内部威胁已发生质变,对现有安全与风控体系构成了近乎颠覆性的挑战,其主要升级体现在以下三个方面。
在自动化工具与服务的加持下,原有内部攻击的破坏力被极大放大。现行防御体系多基于既有威胁模型构建,识别和响应机制往往滞后于具备自学习、自适应能力的新型攻击方式。
攻击者既可利用AI生成高度逼真的图像、文本、音视频内容发动规模化攻击,也可直接采购黑产提供的成熟攻击服务。后者的风险尤为突出:攻击流程高度标准化、门槛极低,且背后的服务提供方具备更强的资源整合与反溯源能力,使攻击行为彻底产业化。
相比“内部人员+自动化工具”的增强模式,Vibe Hacking 所代表的攻击方式更加棘手。该概念源自“Vibe Coding”,即使用自然语言描述需求,由系统自动生成代码。对应到攻击领域,即攻击者仅需表达攻击意图,即可获得完整的攻击链条执行能力,几乎不需要专业技术背景。
随着大模型对公开数据的深度挖掘能力不断增强,传统防御体系已难以应对基于“数据蒸馏”的攻击方式,而 Vibe Hacking 则进一步改变了 AI 在网络攻击中的角色——从辅助工具转变为近乎自主的执行主体。
Anthropic 公司在其 2025 年发布的威胁情报报告中披露了 GTG-2002 和 GTG-5004 两起案例:前者的攻击者技术水平有限,却通过向 Claude 编程助手描述目标,实现了对包括政府、医疗系统在内的 17 个关键系统的入侵;后者则借助 AI 开发勒索软件并在暗网提供服务。尽管该报告的真实性和完整性在业内引发争议,但并未动摇自动化攻击成为主流趋势的判断。
相较于尚存争议的 Vibe Hacking,AI 被劫持或因设计缺陷而直接参与攻击的情况已屡见不鲜。这类攻击往往以合法系统或业务流程为掩护,利用其在内部系统中已获得的授权,绕过传统安全防线,大规模窃取或滥用敏感数据。
以“暗影逃逸”(Shadow Escape)攻击为例,其通过 MCP 与企业内部 CRM、数据库、文件系统之间的可信连接权限,自主完成数据查询、分析与外传的完整流程,全程无需人工干预,且难以被察觉。当此类攻击与深度伪造技术结合时,其规模化风险甚至可能上升至国家安全层面。
在自动化攻击背景下,传统以事后响应为核心的数据安全策略已难以适应现实需求。通过总结高频违法后果并完善合规制度,或可在一定程度上遏制传统内部威胁,但对于自动化内部攻击而言明显不足。
从响应节奏看,传统安全事件往往以小时或天为单位,而自动化攻击的破坏可能在数分钟内完成。因此,内部防御体系至少需要在以下三个方面实现根本转变。
传统的权限管理通常遵循“信任但核查”的逻辑,默认内部人员具备较高可信度,并通过事后审计进行约束。但在自动化攻击环境下,“零信任”与“持续验证”已成为必要前提。内部风险的核心仍在于权限,只是责任主体从单一人员扩展至系统设计者、运营者和使用者等多方。
同时,企业对保密机制的理解往往局限于商业秘密或保密协议管理,未能与数据流转、系统运维等实际业务环节深度结合,导致制度与实践脱节。
持续验证并不仅是技术升级问题,保密机制也并非单纯的法律文本管理。二者需要在法律框架下形成协同,但仍保持各自边界。最小权限原则、AI 行为的可观测性与可审计性、高风险操作的自动阻断与人工复核机制,均属于现行法律体系下的合规义务要求。
与传统舞弊案件侧重事后追责不同,自动化内部攻击所引发的法律责任更强调事前风险控制与责任分配。法学理论与司法实践逐渐重视受益关联度与风险控制能力在责任认定中的作用。
在具体分析中,应重点审视系统规则设计是否符合法律要求、是否存在结构性缺陷、AI 权限配置是否合理、安全防护措施是否充分等因素。除网络运营者的安全义务外,系统开发者与数据处理者也可能因产品或服务的“可责性”承担相应法律责任,其合理注意义务应覆盖系统输出内容、运行逻辑及后续维护。
现实中,一些高风险行为如预留后门、滥用远程维护权限、交付前未审查源代码污染等,往往在民事层面边界模糊,却可能在刑事追责中被严格评价。因此,企业有必要在现行法规之外,提前进行刑事风险评估与防控布局。
AI 伦理已成为人工智能治理的重要议题。最新发布的《人工智能安全治理框架(2.0)》从多个层面明确了伦理风险,包括模型开源被滥用、低质有害内容扩散以及对社会结构和科研伦理的冲击。
内部威胁的防控不仅要求事后可追责,更要求在系统设计和接入阶段即纳入伦理审查。这将直接影响司法实践中对“合理注意义务”及过错责任的判断。
部分企业管理者或法务人员仍存在“法无禁止即可为”的误解,忽视了法律规范、行业标准与司法价值取向之间的整体联系。近年来检察机关提出的知识产权刑事保护原则,已清晰体现出司法实务对技术发展风险的高度敏感。
法律并非孤立存在。将 AI 伦理与法律要求嵌入数据治理的全生命周期,明确各环节的行为底线,是自动化攻击时代不可回避的现实命题。