打开网易新闻 查看精彩图片

一家AI公司把自家"最强模型"锁在保险箱里,只给40家巨头发钥匙——这事听起来像不像高端会所的会员制?Anthropic就这么干了。他们管这个叫Project Glasswing(玻璃翼计划),名字取得像谍战片,实际是个网络安全众测项目。

模型代号Mythos,内部曾用名"Capybara"(水豚,对,就是那种情绪稳定的啮齿动物)。去年12月的泄露文档里,Anthropic自己盖章认证:「这是我们开发过的最强大的AI模型,远超Opus系列。」Opus之前是什么地位?Claude 3家族的老大哥,处理复杂推理和代码任务的顶配。现在Anthropic说Mythos比它还高一个梯队。

但诡异的是,这个"最强"模型不对外开放,不搞API,不做公开评测。它的唯一用途是给亚马逊、苹果、博通、思科、CrowdStrike、Linux基金会、微软、Palo Alto Networks这票安全厂商和平台方"试毒"——让他们拿Mythos去扫描代码漏洞,找零日漏洞(零日漏洞:未被公开披露、厂商尚未修复的安全漏洞)。

泄露始末:一份不该存在的文档

泄露始末:一份不该存在的文档

整个故事的起点是个低级错误。去年11月,Fortune报道了一份泄露的内部备忘录。Anthropic的员工把一篇关于新模型的博客草稿,扔进了公司一个公开可访问的数据湖缓存区。安全研究人员顺手一翻,发现了这篇本该加密的文章。

文档里的信息密度极高。模型当时还叫Capybara,被描述为"全新的层级"——比Opus更大、更聪明。Anthropic后来承认泄露属实,归因于"人为失误"。但有意思的是,公司没有否认文档内容,只是默默把模型名从Capybara改成了Mythos,拖到今年4月才正式官宣。

这三个月的延迟里发生了什么?Anthropic在搭建Project Glasswing的合作伙伴网络。40多家组织不是随便选的:云厂商(AWS、Azure)、终端平台(苹果)、安全巨头(CrowdStrike、Palo Alto Networks)、芯片层(博通)、开源基础设施(Linux基金会)——覆盖了从硬件到应用的全链条。

这种排他性合作在AI圈极其罕见。通常大模型公司的路数是:训练→发布API→冲榜→卖企业版。Anthropic反着来:先让特定玩家内测,再决定要不要公开。他们的官方说法是"防御性安全工作需要受控环境",但业内更现实的解读是:Mythos的能力边界还没摸清楚,放出来可能引发不可控风险。

找漏洞:Mythos的实战成绩单

找漏洞:Mythos的实战成绩单

Anthropic给出的数据很具体:过去几周,Mythos识别出数千个零日漏洞,其中大量属于"关键级"(critical)。更耐人寻味的是时间分布——很多漏洞已经潜伏了一二十年,藏在代码库里没人发现。

这指向一个尴尬的行业现实:人类审计师和现有工具的组合,对复杂代码库的覆盖率有限。Mythos的价值不在于它比人更聪明,而在于它能以机器速度遍历人类看不完的代码量。一个类比:它不是更厉害的侦探,而是能同时读完全城档案馆的实习生。

但这里有个关键限定:Mythos并非专门为网络安全训练。Anthropic强调它是通用模型,"agentic coding and reasoning skills"(自主编码与推理能力)是原生能力,找漏洞只是应用场景之一。这意味着它的能力迁移性很强——今天扫代码,明天可能干别的。

合作伙伴的反馈机制设计得很有意思。Anthropic要求这40多家组织"分享使用经验",最终让整个科技行业受益。翻译成人话:你们当小白鼠,数据归我,功劳大家分。这种众测模式在安全圈有先例(比如Chrome的漏洞赏金计划),但用未发布的AI模型当核心工具,Anthropic是头一家。

政治雷区:与五角大楼的官司

政治雷区:与五角大楼的官司

Mythos的发布时机很微妙。Anthropic正在和特朗普政府打官司——五角大楼去年把这家公司列为"供应链风险",原因是Anthropic拒绝让AI用于"自主定位或监控美国公民"。

公司声称与联邦官员就Mythos的使用有"持续讨论"。但考虑到双方的对立状态,这些对话的实质内容可想而知:政府想知道这个"最强模型"会不会被用于对抗性场景,Anthropic则在划红线。

这种紧张关系解释了为什么Mythos的预览版被严格限定在"防御性"用途。Anthropic需要向监管方证明:我们的最强武器只用来修bug,不搞攻击。但防御和攻击的界限在网络安全领域历来模糊——能找漏洞就能利用漏洞,能审计代码就能植入后门。

一个细节值得玩味:合作伙伴名单里没有Palantir,没有Anduril,没有其他国防科技承包商。Anthropic在刻意保持距离,哪怕这意味着放弃 lucrative 的政府合同。这种"洁癖"在商业上是否合理另说,但至少保持了叙事的一致性。

模型能力的迷雾

模型能力的迷雾

Anthropic对Mythos的技术细节守口如瓶。参数规模?训练数据?基准测试分数?一概不提。我们只知道它比Opus强,强多少不知道。

这种信息黑洞在AI竞赛中越来越常见。OpenAI的GPT-4.5、Google的Gemini 2.5 Pro、Anthropic的Mythos——顶尖模型正在从"公开产品"变成"黑箱资产"。评测机构拿不到访问权限,学术界无法复现,公众只能相信厂商的单方面声明。

Project Glasswing某种程度上是一种替代性的能力证明:不让你看跑分,让你看实战——找出了多少漏洞,覆盖了多少代码库,合作伙伴愿不愿意续费。这种"用进废退"的验证逻辑,比排行榜更接近真实世界的价值交换。

但风险同样明显。如果Mythos在预览期发现了某个关键基础设施的致命漏洞,Anthropic和合作伙伴的披露义务如何界定?如果模型本身被攻破(提示注入、越狱攻击),谁来承担责任?这些问题的答案还没有写进任何合同。

行业影响:安全众测的新范式?

行业影响:安全众测的新范式?

Mythos的发布模式可能被复制。对于能力边界不确定的前沿模型,"受控预览+垂直场景验证"比直接开放更安全,也更容易获得监管好感。想象一个未来:每个大版本更新都先给金融、医疗、能源行业的特定玩家试用,跑通合规流程再逐步放开。

这对中小企业是坏消息。Project Glasswing的合作伙伴名单读起来像科技巨头的通讯录,创业公司和小型安全团队被排除在外。AI能力的分层正在加速:顶级玩家用最强模型,其他人用阉割版或滞后版本。

更深远的影响在人才市场。如果Mythos级别的模型能自动化大量代码审计工作,安全研究员的职业路径需要重新设计。不是被取代,而是工作重心从"找漏洞"转向"定义什么是漏洞"——更偏策略,更偏跨系统风险评估。

Anthropic的赌注是:通过垄断最强模型的早期访问权,建立行业标准的话语权。当40家巨头都用Mythos的输出来定义"关键漏洞",它的判断就变成了事实上的规范。这种软实力比API收入更难量化,但护城河更深。

泄露文档里还有句话没被充分讨论:Capybara/Mythos被描述为"新层级"的起点,暗示Anthropic内部可能有更激进的能力路线图。Project Glasswing是终点还是中途站?公司没说。但把最强模型锁在保险箱里的策略,显然不是为了永远保密——而是在等待一个更安全的释放时机,或者一个不得不释放的竞争压力。

当OpenAI和Google的下一代模型逼近,Anthropic会不会把Mythos的钥匙发给更多人?还是说,"最强模型永不公开"会成为新的行业常态——就像核武器技术只存在于少数国家的实验室里?