打开网易新闻 查看精彩图片

随着越来越多的人使用 AI 工具编写代码,这些工具本身正在引入更多的安全漏洞。

佐治亚理工学院 SSLab 的研究人员一直在跟踪可归因于 AI 生成代码缺陷的 CVE 漏洞。

去年 8 月,他们发现了两个可以明确与 Claude Code 关联的 CVE 漏洞 — CVE-2025-55526(n8n-workflows 中严重性为 9.1 的目录遍历漏洞)和 GHSA-3j63-5h8p-gf7c(x402 SDK 中的输入处理不当错误)。

今年 3 月,他们识别出 35 个 CVE 漏洞 — 其中 27 个由 Claude Code 生成,4 个由 GitHub Copilot 生成,2 个由 Devin 生成,Aether 和 Cursor 各生成 1 个。

Claude Code 的过度代表性似乎源于其最近的人气激增。根据软件工程师 Jodan Alberts 创建的分析网站 Claude's Code 显示,在过去 90 天里,Claude Code 已向公共代码库添加了超过 307 亿行代码。

佐治亚理工学院的研究人员从 2025 年 5 月 1 日开始测量,截至 2026 年 3 月 20 日,CVE 记分卡显示:

Claude Code:49 个(11 个严重)

GitHub Copilot:15 个(2 个严重)

Aether:2 个

Google Jules:2 个(1 个严重)

Devin:2 个

Cursor:2 个

Atlassian Rovo:1 个

Roo Code:1 个

在分析的 43,849 个安全通告中,有 74 个 CVE 可归因于 AI 编写的代码。

佐治亚理工学院 SSLab 研究员赵汉卿在接受《The Register》邮件采访时表示,这些 AI CVE 应该被视为下限值,而不是比例。

"这 74 个案例是我们找到明确证据表明 AI 生成的代码导致漏洞的确认实例,"他说。"这并不意味着其他约 50,000 个案例都是人工编写的,而是意味着我们无法在这些案例中检测到 AI 的参与。

"以 OpenClaw 为例,它有超过 300 个安全通告,看起来大量使用了 AI 编码,但大多数 AI 痕迹已被清除。我们只能确信地确认约 20 个具有明确 AI 信号的案例。基于这样的项目,我们估计真实数字可能比我们目前检测到的高 5 到 10 倍。"

赵汉卿表示,CVE 数量不应被解读为 AI 代码工具因为数量低就能提供更安全的代码的标志。

"仅 Claude Code 就出现在 GitHub 上超过 4% 的公共提交中,"他解释说。"如果 AI 真的只对 50,000 个公共漏洞中的 74 个负责,那将意味着 AI 生成的代码比人工编写的代码安全几个数量级。我们认为这是不可信的。"

他说,低数字"反映的是检测盲点,而不是优秀的 AI 代码质量。"

佐治亚理工学院的发现印证了乔治城大学安全与新兴技术中心于 2024 年 11 月发布的研究。

基于对 GPT-3.5-turbo、GPT-4、Code Llama 7B Instruct、WizardCoder 7B 和 Mistral 7B Instruct 的测试,乔治城研究人员发现,"在所有五个模型中,大约 48% 的生成代码片段可以编译,但包含被 ESBMC(基于 SMT 的高效上下文界限模型检查器)标记的错误,我们将其定义为不安全代码。"

大约 30% 的生成代码片段通过了 ESMBC 验证,被认为是安全的。

赵汉卿表示,正在提交的 AI 生成代码数量正在激增。"端到端编码智能体目前正在兴起,"他解释说。"仅 Claude Code 在 GitHub 上就有超过 1500 万次总提交,占所有公共提交的 4% 以上。

"这部分反映了更多人在使用 AI 工具。但这不仅仅是数量问题。人们使用这些工具的方式正在发生变化。一年前,大多数开发者使用 AI 进行自动补全。现在人们正在对整个项目进行随性编码,提交他们几乎没有阅读过的代码。这是一个不同的风险档案。"

Q&A

Q1:AI 生成的代码真的比人工代码更安全吗?

A:研究表明并非如此。虽然目前检测到的 AI 相关 CVE 漏洞数量相对较低,但这主要反映的是检测盲点,而不是 AI 代码质量更优。实际上,约 48% 的 AI 生成代码包含安全缺陷,只有 30% 被认为是安全的。

Q2:Claude Code 在代码安全漏洞中占多大比例?

A:根据佐治亚理工学院的研究,截至 2026 年 3 月,在 74 个可归因于 AI 的 CVE 漏洞中,Claude Code 占 49 个(其中 11 个为严重级别),这与其在 GitHub 上超过 4% 的公共提交占比和最近的人气激增有关。

Q3:为什么 AI 编码工具会带来安全风险?

A:主要原因包括:AI 工具本身会引入漏洞,人们使用方式的改变(从自动补全转向整个项目的随性编码),以及开发者提交他们几乎没有仔细阅读的 AI 生成代码,这创造了不同的风险档案。