Claude Opus 4.7发布了,但Anthropic自己承认——它打不过本月初那个只给Nvidia、JPMorgan们私下用的Mythos Preview。一家公司同时推出"公开最强"和"真正最强",这种操作背后藏着什么算计?

一、4.7版的升级点:coding场景少"哄"一点

打开网易新闻 查看精彩图片

Anthropic把4.7定位为4.6的进阶版,主攻方向是高级软件工程任务。按官方说法,过去需要更多"hand-holding"(手把手引导)的复杂编码场景,现在模型能更独立地完成。

其他改进包括图像分析、指令遵循,以及做PPT和文档时的"创造力"表现。但这些描述都很模糊——没有基准测试数字,没有对比图表,只有功能清单。

定价没变:输入每百万token 5美元,输出每百万token 25美元。这个价格档位本来就是Claude系列的天花板,Anthropic没打算用降价换市场。

早期测试客户名单倒是亮眼:Intuit、Harvey、Replit、Cursor、Notion、Shopify、Vercel、Databricks。全是开发者工具和SaaS领域的头部玩家,说明Anthropic很清楚谁在为高端版本买单。

二、Mythos Preview:真正的"最强"被锁进保险箱

尴尬的是,4.7的系统卡(system card)里白纸黑字写着:它在"每一项相关评估"中的得分都低于Mythos Preview。Anthropic自己用了"doesn't even advance the company's capability frontier"(甚至没能推进公司的能力边界)这种表述。

Mythos Preview是本月初发布的网络安全专用模型,Anthropic称其为"整体最强模型"。但获取门槛极高——仅限Nvidia、JPMorgan Chase、Google、Apple、Microsoft等"精选合作伙伴"私下使用。

这种安排不是技术限制,是刻意为之。Anthropic在博客中解释:「我们曾表示会将Mythos Preview的发布范围限制在较小范围内,并先在能力较弱的模型上测试新的网络安全防护措施。」

4.7就是这个"能力较弱的试验品"。训练过程中,Anthropic甚至"尝试差异化地降低其网络相关能力"。换句话说,4.7是被故意削弱的版本,为了给Mythos的安全机制探路。

三、网络安全:AI公司的烫手山芋

为什么最强模型不敢公开?Anthropic的顾虑很具体——网络攻击能力。

大语言模型的代码生成能力本身就是双刃剑。让它帮开发者找漏洞、写防护工具,和让它帮攻击者写漏洞利用代码、设计钓鱼攻击,用的是同一套能力。Mythos Preview作为"网络安全专用"模型,这方面的能力被推到极限,风险也被放大到极限。

Anthropic的应对是分层的:对普通用户,4.7加装了比4.6更严格的网络安全防护;对专业安全人员,推出了Cyber Verification Program(网络验证计划),通过审核后可以解除部分限制。

这种"验证解锁"机制在AI行业越来越常见。OpenAI有类似的Researcher Access Program,Google的Gemini也有分级访问。核心逻辑一致:能力越强,管得越死。

但Anthropic走得更远——它把真正的顶尖能力完全隔离在封闭生态里,公开版本只是"sanitized"(消毒后)的替代品。这比OpenAI的GPT-4到GPT-4o的分层更激进,后者好歹让付费用户能摸到天花板。

四、商业逻辑:谁值得信任,谁只能消费

看Mythos Preview的合作伙伴名单,能读出Anthropic的信任图谱。

Nvidia、Google、Apple、Microsoft——算力层和平台层的霸主,AI基础设施的掌控者。JPMorgan Chase——金融巨头,网络安全预算充足且合规要求极高。这些机构的特点是:有专职安全团队、有法律追溯能力、有动机维护系统安全而非破坏它。

相比之下,普通开发者甚至企业客户,在Anthropic的风险评估里显然不够"可信"。他们只能为4.7支付高价,却永远接触不到公司真正的技术巅峰。

这种分层策略的长期影响值得观察。当AI能力成为核心竞争优势,"公开最强"与"真正最强"的差距会拉大还是缩小?Anthropic的答案是明确的:安全顾虑优先,技术民主化靠后。

对依赖Claude的开发者来说,这意味着一个微妙的现实——你付费购买的,从来不是这家公司能提供的最好产品。