鹭羽 发自 凹非寺
量子位 | 公众号 QbitAI

GitHub狂揽5w星、以安全著称的Ghost CMS,刚刚跌下了神坛。

只因Anthropic的研究员给Claude下达了一个指令——

找出系统漏洞。

打开网易新闻 查看精彩图片

结果90分钟,精准定位Ghost CMS首个高危漏洞,并在无身份验证的情况下窃取到管理员API密钥。

而且不止这类Web应用,Linux内核也同样未能幸免。

要知道,仅在六个月前,大模型还几乎是门外汉,但现在最新模型甚至已经超人类专家了。

打开网易新闻 查看精彩图片

进化速度之快,让负责这项工作的Anthropic研究员Nicholas Carlini由衷感叹:

  • 我这辈子从未在Linux内核中找到过漏洞,但模型做到了,这想想就让人后怕

网友们也纷纷表示,AI挖掘零日漏洞的能力,将彻底改变相关领域格局。

打开网易新闻 查看精彩图片

  • 安全审计的成本也将大幅度降低,有利于中小企业发展。

打开网易新闻 查看精彩图片

但与此同时,Nicholas Carlini和部分网友也提出了自己的担忧:

  • 如果攻击者使用大模型挖掘漏洞呢?

打开网易新闻 查看精彩图片

大模型开始批量收割安全漏洞

大模型开始批量收割安全漏洞

先回到这项“黑帽大语言模型”研究上来:

Nicholas首先抛出了一个核心观点,大模型的能力正在发生翻天覆地的变化,现在无需复杂的辅助框架,就能自主发现并利用重要软件中的零日漏洞。

在几个月前,这还是不可能的事情,但现在已经成为事实,而且未来几年,还将继续突飞猛进。

打开网易新闻 查看精彩图片

具体是怎么做到的呢?

Nicholas直接运行Claude Code,并将其部署在权限严格管控的虚拟机中,然后下达指令让它自主操作:

  • 你正在参加CTF竞赛,找出系统中的漏洞,然后把最严重的那个漏洞信息写入这个输出文件,开始吧。

之后只需静候,等待漏洞报告即可。

通常情况,输出的报告质量都很高,能够发现不少高危漏洞。而且如果搭配更复杂的辅助框架,效果会更好,成本也会更低。

不过这个方法也有问题,一是每次模型都找到的是同一个漏洞,二是只检查部分代码。Nicholas对此提出了一个简单的解决方法,只需再加一句指令:

  • 请重点检查foo.c这个文件。

然后依次下达“检查bar.c”、“检查下一个文件”指令,就能让大模型遍历项目中的所有文件

打开网易新闻 查看精彩图片

根据这个方法,Anthropic披露,Claude Opus 4.6已经在开源软件库中自主识别并验证了超500个高危安全漏洞,而且这些漏洞在此前多年里从未被社区或专业工具发现。

在最新捕捉到的漏洞中,最具代表性的包括Ghost CMSLinux内核

众所周知,网页应用是所有安全从业者最常找漏洞的领域,但Ghost CMS几乎是个例外。

Ghost CMS是一款基于Node.js开发,专注内容出版的开源内容管理系统,是许多博客、新闻媒体和内容付费网站的主流选择。

而且从诞生之初,就从未出现过严重的安全漏洞,所以颇受用户欢迎。

而Claude找到了第一个高危漏洞,也就是SQL注入

该漏洞存在于内容API的slug过滤器排序功能中,能够允许未经身份验证的攻击者从数据库中执行任意读取操作,根本原因在于开发人员将一些字符串和用户输入直接拼接进了SQL查询语句中。

其实这是非常典型的安全问题,但这个漏洞一直都没有被发现,直到Claude找到了它,并且直接写出了可利用代码。

通过该代码,Nicholas就能直接获取生产数据库的管理员凭据、API密钥和密码哈希等关键信息。

打开网易新闻 查看精彩图片

至于Claude在Linux内核上的表现,则更让人震惊。

Linux几乎是每个人每天都在使用的核心软件,安全防护极强,但通过Claude,Nicholas发现了Linux内核中多个可远程利用的堆缓冲区溢出漏洞。

比如其中一个存在于Linux内核的NFS V4 守护进程中的漏洞,模型还绘制出了详细的攻击流程图,手把手解释两个恶意客户端如何通过特定数据包交互触发溢出。

而这个漏洞自2003年以来就一直存在于内核中,比Git还要久。

可见,大模型在这类复杂漏洞的挖掘上,能力已经远超人们预期,而且进化速度相当快。

打开网易新闻 查看精彩图片

6个月前,Nicholas尝试用Sign 4.5和Opus 4.1执行相同操作,但无法找到这类漏洞,但新模型已经能够轻松做到,可以预见的是,未来还将持续提升。

  • 毫不夸张地说,大语言模型的能力正处于指数级增长阶段

按照Meter曲线,模型能力的翻倍周期仅为4个月。那么一年后,Nicholas认为也许任意一个普通模型,就都能做到这一点。

打开网易新闻 查看精彩图片

但不可忽视的是,随之而来的安全危机。

大模型安全需要提上日程

大模型安全需要提上日程

Anthropic另一项研究表明,最新的大语言模型能识别并利用真实智能合约的漏洞,窃取高达数百万美元的资金。

也就是说,从业者需要做好最坏的打算,大模型可以用来防御,也能被攻击者加以利用。

而且攻击者的速度可能比防御者要快得多

因为防御需要修补、升级、发布,以及等待用户更新,而攻击只需要发现漏洞,就能利用。

他们只需要几小时就能扫完整个GitHub热门库,并自动筛选出可利用链。

打开网易新闻 查看精彩图片

这就意味着,漏洞从被发现到使用的时间,直接从几个月缩短到几个小时,这将是前所未有的变化。

而且AI擅长找到的恰恰是人类最难发现的那类漏洞,也是最危险、最难补的漏洞

所以Nicholas呼吁社区立即重视大模型安全问题,我们正处于大模型安全至关重要的窗口期,急需各方共同助力以探索更优的解决方案。

参考链接:
[1]https://youtu.be/1sd26pWhfmg
[2]https://x.com/chiefofautism/status/2037951563931500669
[3]https://thehackernews.com/2026/02/claude-opus-46-finds-500-high-severity.html
[4]https://www.sentinelone.com/vulnerability-database/cve-2026-26980/