凌晨三点,你的代码刚合并到主分支。CI流水线跑完,绿色对勾亮起——但真正的漏洞可能还没被发现。Anthropic最近把安全扫描工具从封闭测试放了出来,让大模型直接钻进代码库找安全问题。

从封闭到公开:产品时间线

打开网易新闻 查看精彩图片

这款工具最初是内部项目,只对特定企业开放测试。这次正式推出,意味着任何使用该公司AI的开发者都能调用这个功能。

工具的核心逻辑不复杂:把代码仓库丢给模型,让它扮演安全审计员的角色。系统会逐行扫描,标记潜在漏洞——从SQL注入到权限绕过,再到依赖项里的已知缺陷。

但和传统的静态分析工具(SAST)不同,它的优势在于"理解上下文"。同样的函数调用,在普通CRUD接口里没问题,放在支付模块可能就是高危操作。规则引擎很难捕捉这种语义层面的风险,而大模型可以。

技术实现:怎么做到的

公司没有公开完整的技术细节,但从产品形态能反推一二。

首先是代码表征。模型需要把整段代码库压缩成可处理的上下文,这涉及代码切片和依赖图谱构建。然后是漏洞知识库——系统显然被训练过识别CWE(常见缺陷枚举)里的典型模式,但更重要的是它能关联业务逻辑。

一个值得注意的设计是"可解释性输出"。系统不只是标记漏洞,还会写出自然语言说明:为什么这里有问题、利用路径是什么、怎么修复。这对安全团队做triage(分级处置)很友好。

目前支持的语言包括Python、JavaScript/TypeScript、Go、Java和Rust。覆盖范围不算全,但已经踩中了企业级开发的主流技术栈。

竞争格局:谁在抢这块蛋糕

代码安全市场早就不是蓝海。GitHub的Copilot Security、Snyk的AI功能、亚马逊CodeWhisperer的安全扫描——大厂都在往这个方向挤。

这款工具的差异化牌打在哪里?

一是"原生集成"。作为AI生态的一部分,它不需要额外配置,对话式界面降低了使用门槛。二是"深度推理"。该公司一向强调其模型的长上下文和逻辑能力,这在分析跨文件调用链时确实有用。

但短板也明显:成本。大模型扫描比传统工具慢得多,按token计费的模式在大代码库上可能价格感人。企业客户得算笔账——省下来的人工时能不能覆盖算力开销。

关键数据与落地信号

封闭测试期间,公司没有公布具体的漏洞检出率或误报率数字。但产品能走到公开阶段,说明至少核心客户(据说是几家金融科技公司)的反馈过关。

一个细节:该工具目前定位为"辅助工具",而非替代人工审计。输出结果需要安全工程师复核,最终修复决策权在人手里。这种设计既规避了责任风险,也符合当前AI能力的实际边界。

定价方面,公司把它打包进企业订阅,不单独售卖。这意味着使用门槛是"已经是企业用户",而非按需付费的灵活模式。

为什么这件事值得盯紧

代码安全工具的AI化,本质是"安全左移"的极端版本。传统DevSecOps把扫描环节塞进CI/CD,AI工具则试图把安全能力前置到编码瞬间——甚至在你写代码的同时,模型就在侧边栏标红风险。

这对开发流程的冲击是真实的。安全团队从"事后审计"变成"实时协作者",开发者的认知负荷会增加,但漏洞修复成本会指数级下降。

更底层的趋势是:大模型正在吃掉所有"需要阅读大量文本并做出判断"的工具类别。代码只是开始,配置文件、基础设施即代码(IaC)、甚至安全运营中心的告警日志,都是潜在目标。

该工具的公开,标志着这家公司从"对话式AI"向"垂直工具链"的扩张。它不再满足于做你聊天的对象,而是要嵌入你的工作流、接管具体的职能模块。

这个产品的成败,将验证一个假设:大模型的商业化终点,到底是通用平台还是场景插件?这家公司显然在押注后者。