恶意行为者正在利用生成式 AI 实施网络攻击:使用AI生成的深度伪造内容欺骗受害者、借助AI编码工具开发恶意软件、利用聊天机器人发动网络钓鱼攻击,以及通过AI智能体入侵广泛使用的开源代码仓库。此类AI驱动的网络威胁正在持续上升。
今年4月初,Anthropic旗下负责评估AI模型潜在安全风险的前沿红队宣布,公司旗下的Claude Mythos Preview模型已识别出数千个高危及严重级别的安全漏洞。令人关注的是,这些漏洞涵盖"几乎所有主流操作系统和主流浏览器",而该模型此前并未针对此类任务进行专项训练。
这一发现促使Anthropic启动了"Project Glasswing"项目,旨在帮助抵御AI辅助的网络攻击。项目的首批合作伙伴包括亚马逊云服务(AWS)、苹果、谷歌、微软和英伟达等科技巨头,这些公司将借助Mythos Preview对软件进行扫描和安全加固。
尽管生成式 AI 在编码、推理和自主执行方面的能力已足够强大,能够识别出潜在的代码安全漏洞,但这些能力同样可以被用于利用这些漏洞发起攻击。网络安全专家认为,在利用AI检测代码漏洞方面找到合理且安全的平衡是可行的——前提是在流程中构建多层验证机制,并确保人类的判断与专业能力始终参与其中。
Mythos Preview发现的漏洞中,包括一个存在长达27年的OpenBSD系统漏洞——OpenBSD是一款类Unix的开源操作系统,该漏洞允许远程攻击者使运行该系统的任意设备崩溃;一个浏览器漏洞,可让拥有自己域名的网络犯罪分子读取其他域名的数据,例如用户的银行信息;以及多个加密库中的安全弱点,这些弱点可能被黑客用于解密加密通信或伪造证书。
代码安全公司Sonar的代码安全副总裁Jeremy Katz表示,发现漏洞对于网络安全研究人员来说并不新鲜,但AI是工具箱中的又一利器。大语言模型尤其擅长响应定向查询,搜索特定类型的安全漏洞。他补充道:"你可以把AI智能体指向一个庞大的代码库,它们非常擅长在海量信息中找到那根'针'。"
金融服务公司Upgrade的首席应用安全工程师Nayan Goel认为,速度和语义理解是AI模型的核心优势。AI模型不仅能比人类更快地定位漏洞,还能对代码语义进行推理,跨不同抽象层追踪数据流,这远超传统静态分析工具的模式匹配能力。
"那种跨组件的推理能力,从结构上就超出了基于规则的工具所能做到的范围,"Goel说,"这一代新工具的工作方式,更接近安全研究人员真正的思考模式。"
网络安全公司Theori的联合创始人兼首席技术官Andrew Wesie持有同样乐观的看法。"我们有一种方法,也许真的能帮我们找到所有漏洞——这曾经被认为只是空想。而现在,这确实可以实现了。"
尽管前景令人期待,大语言模型仍容易产生误报,例如将某个普通错误错误地标记为安全漏洞,或夸大漏洞的严重程度。这给从噪音中找到真正信号带来了挑战,尤其是对那些维护重要开源项目的志愿者而言,他们面临着快速修复漏洞的压力。
Katz在与开源项目维护者合作进行协调漏洞披露的过程中,亲眼目睹了这一现象。"我看到被上报的问题数量急剧增加。很多情况下,这些确实是值得修复的真实错误,但并非安全漏洞——这条分界线正变得越来越模糊。而光是分类整理所耗费的时间,就已经相当可观了。"
另一个隐患在于,AI工具本身既可能遭受攻击(例如通过提示词注入),也可能成为攻击的发起者。以Mythos Preview为例,它能够将多个相互关联但独立的漏洞串联起来,形成一套可以获取Linux内核(即操作系统核心层)最高权限的分步利用链。
网络安全专家认为,充分发挥AI的优势同时规避其不足是可行的。Claude Code Security和谷歌CodeMender等工具已引入所谓的"对抗性自审"机制,即在输出结果前对自身的分析结论进行质疑和审查。这一额外审查层级(还可包括大语言模型或AI智能体将发现结果发送给另一个模型或智能体进行验证)有望降低误报率,并在流程中建立制衡机制。
但Goel强调,AI标记的问题仍必须经过人工核查与确认。"这些工具的输出是概率性的,并不是最终结论,"他说,"它们无法替代安全设计评审或渗透测试评审。你仍然需要能理解代码背后业务逻辑的人来进行审查。每当AI给出一个发现,都要经过验证流程。流程中始终有人工参与,这样我们才能建立起信任边界。"
Goel还提到,动态威胁建模和红队测试也是在代码漏洞检测中实现安全平衡的有效方式。动态威胁建模随着系统演进持续评估AI系统面临的潜在威胁及缓解措施,而红队测试则对AI系统的安全性及其可能带来的风险进行全面评估。
探索代码漏洞检测的平衡点,同样需要流程层面的变革。将安全工作前移至软件开发的早期阶段——即程序员编写代码之时——能够带来显著改变。
软件安全公司Secure Code Warrior联合创始人兼首席技术官Matias Madou表示:"企业需要实施持续的教育和技能提升项目,让开发者在软件发布之前就具备消除代码缺陷的能力。通过确保开发者从一开始就能有效创建和审查安全代码,我们正在采取必要措施,防范潜在的重大风险。"
随着AI在识别正确的代码安全漏洞、准确评估其严重程度方面不断精进,下一个挑战将是弥合大规模检测与修复漏洞之间的差距。
Q&A
Q1:Claude Mythos Preview发现了哪些类型的安全漏洞?
A:Mythos Preview已识别出数千个高危及严重级别的漏洞,涵盖几乎所有主流操作系统和浏览器。具体包括:一个存在27年的OpenBSD系统漏洞,可让攻击者远程使设备崩溃;一个浏览器漏洞,可被用于跨域读取用户数据;以及多个加密库漏洞,可能导致加密通信被解密或证书被伪造。
Q2:AI检测代码漏洞时产生的误报问题该如何解决?
A:目前业界采用多种方式降低误报率。一是引入"对抗性自审"机制,让AI在输出前审查自身结论;二是将结果发送给另一个AI模型或智能体进行二次验证;三是始终保留人工审核环节,由具备业务逻辑理解能力的安全工程师对AI的发现进行最终确认,确保AI输出仅作为参考而非最终判决。
Q3:企业应如何从流程上提升代码安全防护能力?
A:专家建议将安全工作前移至开发阶段,在代码编写时就介入安全检测,而非等到发布前再补救。同时,企业应持续对开发者进行安全技能培训,使其具备在源头识别和修复安全缺陷的能力。此外,动态威胁建模和红队测试也是评估和提升整体安全水位的重要手段。
热门跟贴