OpenAI发布了名为Daybreak的网络安全平台,把GPT-5.5系列模型和Codex Security结合起来,帮企业自动检测代码漏洞、做威胁建模,还能验证补丁有没有打对。

这个平台最特别的是分级模型权限设计。其中有个叫"GPT-5.5-Cyber"的版本权限放得相当宽,专门给红队测试用。但这也带来一个现实问题:万一访问控制被绕过,这些能力会不会被拿去做别的?

打开网易新闻 查看精彩图片

Daybreak的上线时机很微妙。现在行业里有个越来越明显的矛盾:AI找漏洞的速度远超人类修复的速度。安全团队每天被海量告警淹没,分不清哪些是真威胁,还得应付AI"幻觉"出来的假漏洞报告——误报多了,人反而更累。

打开网易新闻 查看精彩图片

OpenAI这次把"代理式AI"(Agentic AI)用在了安全攻防的闭环里。不是只给报告,而是让模型自己去验证补丁、确认修复效果。对企业来说,这省了不少人力;但对整个行业来说,攻防双方的自动化军备竞赛又升了一级。

技术文档里没提具体定价和开放范围,只说是面向企业代码库。考虑到GPT-5.5-Cyber的权限设计,早期用户大概率和OpenAI有深度合作,普通开发者短期内摸不到。

打开网易新闻 查看精彩图片

一个值得观察的点是:当攻击方和防守方用上了同一代际的AI工具,"快"本身还能不能构成优势?Daybreak的测试数据可能会给出部分答案。