网络安全领域的一个标志性时刻来了。谷歌威胁情报小组(GTIG)本周发布报告,首次确认发现一起黑客使用人工智能开发零日漏洞攻击的真实案例。这不是演习,也不是预测——攻击已经发生,只是被及时阻断。

这起事件的目标是一款流行的开源Web系统管理工具。攻击者开发的漏洞利用代码能够绕过该工具的双因素认证(2FA)保护。GTIG研究人员在分析代码后给出高置信度判断:这段Python脚本出自大语言模型之手。

打开网易新闻 查看精彩图片

证据写在代码里。GTIG指出,脚本中包含大量教学式文档字符串,甚至出现了一个"幻觉"生成的CVSS漏洞评分。代码结构高度规整,呈现出教科书式的Python风格——这正是LLM训练数据的典型特征。换句话说,AI不仅写了代码,还顺手给代码写了"注释作业"。

打开网易新闻 查看精彩图片

漏洞本身的性质也指向AI参与。这是一个高级语义逻辑缺陷,属于AI系统擅长识别的类型;而非传统模糊测试或静态分析更容易发现的内存损坏、输入过滤等问题。至于具体使用了哪款大模型,谷歌表示尚不清楚,但明确排除了Gemini的可能性。

这起个案背后是一股更明显的趋势。GTIG在报告中点名多组黑客组织:中国的APT27、APT45、UNC2814、UNC5673、UNC6201,以及朝鲜背景的攻击者,都在利用AI模型进行漏洞发现和漏洞利用开发。俄罗斯关联行动者则被观察到使用AI生成的诱饵代码,为CANFAIL、LONGSTREAM等恶意软件打掩护。

打开网易新闻 查看精彩图片

谷歌还披露了代号"Overload"的俄罗斯行动:社会工程攻击者使用AI语音克隆技术,冒充真实记者制作虚假视频,传播反乌克兰叙事。另一款名为PromptSpy的Android后门则整合了Gemini API,通过硬编码提示词让恶意软件获得"良性人格"以绕过安全限制,进而自动计算界面几何边界、重放设备认证。

攻击者正在把AI变成生产力工具。谷歌及时通知了受影响的软件开发商,阻断了这次攻击进入大规模利用阶段。但GTIG的措辞值得注意——这是"首次"确认AI辅助开发的零日漏洞。首次之后,通常跟着更多。