打开网易新闻 查看精彩图片

一家警告自家模型"网络安全风险史无前例"的公司,因为博客后台没设密码,把这份警告原稿摊在了搜索引擎里。

3月27日,Fortune拿到一份Anthropic的草稿博客,来源是公司"未设防且可被公开检索的数据存储"。这篇本该谨慎发布的文章,提前剧透了正在研发的Claude Mythos模型——被官方 spokesperson 定性为"能力跃迁"和"迄今为止最强"。

讽刺的闭环就此完成:一个被设计来识别系统漏洞的AI,它的诞生公告却因人类操作员的系统漏洞而早产。

泄露文件里的"新物种"

泄露文件里的"新物种"

草稿透露的关键信息足够让竞品失眠。Mythos属于一个全新层级"Capybara",与现有Opus、Sonnet、Haiku的递减式分级不同,这个层级的定位尚不明朗。已知的是跑分:相比Claude Opus 4.6,Capybara在软件编程、学术推理、网络安全测试上"大幅领先"。

Anthropic spokesperson 向Fortune的表述很克制——"通用模型,在推理、编程、网络安全上有实质性进展"。但草稿里的内部措辞完全是另一套话语体系。

「在准备发布Claude Capybara时,我们希望格外谨慎,理解它带来的风险——甚至超出我们自身测试所发现的范围。」

这种"自我预警"在AI公司宣传稿里极为罕见。更罕见的是具体指向:草稿明确写道,该模型"预示即将到来的模型浪潮,其利用漏洞的能力将远超防御者的应对速度"。

消息流出的次日,网络安全板块集体下挫。资本市场的反应速度,比Anthropic的安全审核流程快得多。

不是第一次"养蛊自忧"

不是第一次"养蛊自忧"

打开网易新闻 查看精彩图片

Anthropic对自家产品的警惕有前科。公司此前公开承认,黑客已利用Claude模型自动化攻击银行和政府机构——这是少数愿意将产品滥用案例摆上台面的AI厂商。

这种"坦诚"背后有计算。当OpenAI和Google DeepMind被批评为发布-修复的"快速迭代"模式时,Anthropic试图用"负责任扩展"(Responsible Scaling)建立差异化。泄露的草稿里反复出现"与网络防御者分享结果""帮助准备"等表述,正是这一策略的延续。

但策略的执行层出现了裂缝。内容管理系统(CMS)的公开可搜索配置,让一份包含未发布模型代号、能力对比数据、风险定级的内部文件,变成了搜索引擎的索引对象。

Fortune的报道未透露具体技术细节,但"publicly-searchable data store"的表述暗示:这不是黑客入侵,是配置疏忽。换句话说,最基础的访问控制失效。

Capybara层级的悬念

Capybara层级的悬念

现有Claude产品线的命名逻辑相对直观:Opus(巨作)最大最贵,Sonnet(十四行诗)平衡,Haiku(俳句)轻量快速。Capybara(水豚)的加入打破了这一文学传统——一种以温顺著称、能与多种动物共处的啮齿类。

命名是否暗示定位?目前无从确认。泄露信息仅确认Mythos属于Capybara层级,但未说明该层级是取代Opus成为新旗舰,还是作为平行实验线存在。

更关键的未知数是发布时间。草稿的预警语气暗示安全评估尚未完成,但"准备发布"的措辞又表明已进入后期阶段。Anthropic的竞争对手——被Claude Code和Claude Cowork工具"撼动核心"的OpenAI——现在有了更具体的追赶标的。

股价波动之外,这次泄露的真正代价可能在于:它提前暴露了Anthropic的"能力-安全"叙事张力。公司既需要展示模型在网络安全测试中的高分,又需要警告这种高分对应的现实风险。草稿里"史无前例的风险"与"大幅领先的分数"并置,构成了一个难以向公众解释的产品故事。

而当这个故事因为后台配置错误提前泄露时,Anthropic失去了控制叙事节奏的机会。

一个值得追踪的细节:泄露草稿中提到的"与网络防御者分享结果"具体指什么?是红队测试报告、漏洞利用演示,还是某种预警机制?Anthropic尚未回应Fortune的后续询问。