2024年,一个中等严重程度的漏洞从公开到被大规模利用,平均需要43天。到2025年底,这个数字跌到了11天。Xbow的监控数据显示,部分关键漏洞的"存活窗口"已经压缩到72小时以内——刚好是一个周末的长度。
这意味着什么?周五下班前发布的补丁,周一早上可能就已经失效。传统的渗透测试流程——签合同、排期、人工执行、出报告——动辄数周的周期,在这个时间尺度上显得像个冷笑话。
GitHub Copilot原班人马,把AI攻击做成了"蜂群战术"
Xbow的创始人Oege de Moor是GitHub Copilot和GitHub Advanced Security的缔造者。他拉来了Copilot的核心工程团队,又找来了Nico Waisman——后者在加入Xbow前,已经在安全行业干了二十多年,亲手带过多个红队。
Waisman的团队干了一件事:把人类黑客的经验"蒸馏"成AI代理的行为逻辑。不是让一个AI去模仿黑客,而是让300个代理同时出动,每个负责特定的攻击向量——SQL注入、XSS、权限绕过、供应链投毒——然后互相验证结果。
「真正的难点不是发现漏洞,是怎么在规模化的时候不打乱仗。」Waisman在RSAC 2026的访谈里说,「我们造的是一个协调工具。它派出一群代理攻击你的环境,确保它们不会互相踩脚,不会真把你的数据库删了,还能从噪音里找出真正的漏洞。」
这个设计解决了一个老问题:传统自动化扫描的假阳性率高到让安全团队麻木。Xbow的内置验证机制要求多个代理交叉确认同一漏洞,才会上报。Waisman称这是"在干草堆里找针",但加了后半句——"同时确保你没把干草堆点着"。
HackerOne榜首的含金量:AI代理开始"抢"黑客的饭碗
Xbow的自主代理已经爬到了HackerOne全球漏洞赏金榜的顶端。这不是演示环境,是真实的生产系统,对手是全球数十万名注册白帽黑客。
一个细节值得玩味:HackerOne的排行榜 traditionally 是人类黑客的荣誉墙。现在一个AI系统坐到了第一排,而且不是偶尔上榜,是持续停留。Waisman没有透露具体赏金金额,但提到"足以覆盖我们的计算成本还有余"。
更微妙的变化发生在客户侧。Xbow的早期用户包括几家财富500强,他们原本每年花数百万美元买传统渗透测试服务。Waisman说,这些客户现在把Xbow的自主测试作为"基础防线",人类红队保留给"高价值目标"——比如即将发布的核心产品、并购后的系统整合。
换句话说,安全预算的分配逻辑正在重构。不是AI替代人类,而是人类被迫向上迁移,去做AI暂时够不着的事。
"全观测性":为什么客户愿意让AI在自己的系统里"撒野"
企业安全团队对自动化攻击工具一直有戒心。道理很简单:你请人来测试,至少知道对方是谁、在干什么;放一个AI进去,它会不会越界?会不会留下后门?
Xbow的回应是"全观测性"(full observability)——客户可以看到大语言模型在测试过程中的每一个动作,每一次工具调用,每一个决策分支。对比传统渗透测试交付的PDF报告,这种透明度的差异像是"直播手术"和"术后病历"的区别。
Waisman认为这改变了甲乙双方的权力关系。「以前你拿到一份报告,上面写着'高危漏洞:SQL注入',你怎么知道测试人员真的验证了?还是只是扫描器报了个误报?」他说,「现在你可以回放整个过程,看到代理是怎么构造payload的,为什么判断这是可利用的。」
这种设计也有副作用:观测数据量巨大。Xbow的客户通常需要专门的存储和分析基础设施来处理日志。一位早期用户形容,"第一次看的时候像打开了消防栓,后来才学会怎么接水"。
攻击者的AI已经"全速运转",防守方还在"人工审核"
Waisman在访谈里反复提到一个词:"chaos phase"(混沌阶段)。他的判断是,AI正在把攻防双方的速度差拉大到危险区间。
「坏人现在可以规模化地做所有事情。」他说,「从发现漏洞到实际利用的时间窗口在急剧缩小。从行业角度看,我们正进入一个混沌阶段——攻击方的行动会更快、更准,而我们还没准备好。」
这个判断有数据支撑。微软2025年的威胁情报报告显示,AI辅助的钓鱼攻击转化率提升了3倍;CrowdStrike追踪到,利用AI生成漏洞利用代码的攻击者,其"武器化"速度比传统方式快47%。
防守端的反应则慢得多。Gartner 2025年调研显示,全球企业安全运营中心(SOC)的平均事件响应时间仍在数小时级别,而自动化攻击的决策循环已经压缩到分钟级。
Xbow的赌注是:只有用AI的速度对抗AI,才能把这个差距收窄。不是替代人类判断,而是把人类的注意力从"找漏洞"转移到"定优先级"和"做修复决策"——这两件事AI暂时还做不好。
一个悬而未决的问题:当攻击方也用上了同样的工具
Xbow的技术架构没有公开全部细节,但Waisman承认,核心组件——多代理协调、LLM驱动的漏洞验证——理论上可以被复制。事实上,暗网已经出现了类似的工具套件,价格从几百到几千美元不等。
这引出了一个尴尬的悖论:自主渗透测试平台越成功,它的技术路径就越可能被攻击者借鉴。Xbow的应对是持续迭代,"比抄袭者快一个版本",但Waisman也承认这不是长久之计。
更深层的问题在于,安全行业的"军备竞赛"模式本身是否可持续。当攻防双方都 fully AI-powered,决定胜负的变量会是什么?算力?数据质量?还是某个尚未被量化的"创造性漏洞发现"能力?
Waisman在访谈结尾没有给出答案。他说Xbow正在和几家头部云厂商谈判,想把自主测试能力嵌入到CI/CD管道里——让每次代码提交都自动触发一轮"AI红队"评估。如果这个方案落地,安全测试的频率将从"季度"变成"每次提交",成本结构也会彻底改写。
一位Xbow的早期用户在内部反馈里写了一句耐人寻味的话:"以前我们担心AI找不到漏洞,现在担心它找到太多——我们的修复队列已经爆了。"
当你的AI红队比开发团队还能产bug,这是效率的胜利,还是另一种形式的失控?
热门跟贴