当一家AI公司宣称自家模型发现了"国家级"网络漏洞,却被安全圈高管用实测数据当场质疑——这场交锋暴露了AI安全评估的什么盲区?
事件还原:一场直播中的技术对质
打开网易新闻 查看精彩图片
彭博社《Bloomberg Tech》节目现场,网络安全公司Aisle的COO兼首席信息安全官Jaya Baloo抛出一组内部测试结果:廉价的开源模型同样能定位到Anthropic旗下Mythos模型所发现的漏洞。
这一表态直接挑战了Mythos的核心叙事。该模型因"自主挖掘网络漏洞"的能力正引发政府与机构层面的高度关注,目前仅向少数企业开放内测。
关键分歧:能力边界还是评估标准?
Baloo的质疑并非否定Mythos的技术价值,而是指向一个更尖锐的问题——当"发现漏洞"被包装成高端AI的专属能力时,行业是否混淆了"能做"与"做得更好"的评估维度?
Aisle的测试暗示:漏洞发现的门槛可能比Anthropic对外传递的信号更低。若开源方案以极低成本复现核心成果,Mythos的差异化价值究竟体现在检测深度、自动化程度,还是商业叙事?
为什么这事值得盯紧
政府与机构的焦虑正在催生一个高溢价市场,但安全能力的定价权究竟该由谁定义?是实验室里的基准测试,还是实战环境中的成本效率?Baloo的介入把这场争论从"模型能力排名"拉回了"商业验证"的地面。
当AI安全成为地缘政治筹码,我们是否需要更透明的第三方审计机制——而非仅靠厂商自述的"神话"?
热门跟贴