打开网易新闻 查看精彩图片

今年独立安全团队测了主流AI编程助手从零搭建应用的能力。结果:大多数拉取请求(Pull Request,代码合并请求)都带漏洞。Fortune 50企业内部数据显示,AI生成代码每月新增超1万个安全发现项。语法错误少了,权限提升路径暴增300%以上。

代码变干净了,漏洞变多了。AI只是把人类老毛病加速生产。

01 漏洞不是新问题,是旧问题×新速度

01 漏洞不是新问题,是旧问题×新速度

AI写的代码看着没毛病。框架用得对,模式走得正,自动代码审查也能过。它就悄悄跳过一个问题:"这个用户该有权限吗?"

一个客户能看到另一个客户的数据。登录流程留个后门敞着。接口直接暴露给全网。

这些不是语法错误,是判断失误。传统静态分析工具的设计目标是抓"已知坏模式",不是抓"缺了啥逻辑"。AI生成代码里超80%的漏洞,这类工具根本扫不出来。

打开网易新闻 查看精彩图片

模式匹配能识别明显写错的代码。它识别不了"该写但没写"的逻辑。

一个人类程序员一个迭代周期写一个不安全的接口。一个AI助手一下午写二十个。这道算术题,安全基础设施的承载能力得重新算。

02 代理循环收紧,人眼被挤出流程

02 代理循环收紧,人眼被挤出流程

事情还在加速。AI写代码、AI审代码、AI合并代码的闭环越来越紧。每迭代一次,生成到上线的窗口就缩一点,人工验证层就薄一层。

窗口宽的时候,模式匹配工具和人工审查能互相补盲。窗口窄了,两者都没时间干活,漏过去的错误恰恰是双方都没设计要抓的那种。

下一代安全工具开始尝试"推理代码"而非"匹配模式"。安全审查变成开发流程里的持续动作,而不是终点前的闸门。方向是对的。

打开网易新闻 查看精彩图片

但工具越多,攻击面越大。今年初一波CVE(通用漏洞披露)砸向MCP(模型上下文协议)基础设施,很多正是这类工具本该抓的漏洞类型。要信任安全流水线,先得加固流水线本身。OWASP和GitHub已经在发布相关框架和参考架构。

03 作者的平台怎么应对

03 作者的平台怎么应对

作者在自己的平台搭了模式匹配层:每个PR跑静态分析,每晚动态扫描。这能抓设计目标内的东西。地板铺好了。

现在需要往上盖:能推理逻辑层缺口的安全代理、通过MCP在生成阶段介入而非仅审查阶段介入的工具、以及和生产环境同等隔离与最小权限加固的流水线。

AI犯的错不是新错。变的是速度。而速度改变一切。

你的团队现在怎么审AI写的代码——还是已经不审了?