昨天还在赶Claude源码泄露的稿子,线头刚理清楚,Anthropic那边又炸了。他们内部练出了一个叫"Claude 4 Opus"的模型——按自己人的说法,是"公司史上最强"——然后决定:不发了。

这事儿发生在今年春天。团队跑完测试,指标全线飘红,比Claude 3.5 Sonnet强出一截。但高管层开会后,把模型按回了抽屉里。理由是安全评估没过关,具体哪项指标触雷,官方没细说。

CEO Dario Amodei的原话是:「我们确实有一个更强的模型,但发布它的风险收益比不对。」翻译一下:能造出来,但不敢保证它不乱说话。

这已经不是Anthropic第一次踩刹车。去年他们推迟过Claude 2.1,今年又卡住了4 Opus。隔壁OpenAI和Google的模型迭代像发周报,Anthropic却像个强迫症质检员——每批货都要拆开检查三遍。

有员工在内部论坛吐槽,说自己的代码"烂在仓库里"。但公司立场很硬:安全护栏没搭好,宁愿让竞品先跑。现在Claude 4 Opus的权重文件还躺在服务器里,访问权限锁得比CEO的日程表还严。

用户端倒是没闲着。Reddit上有人发现,Claude 3.5 Sonnet最近"变笨了",怀疑是Anthropic偷偷调了参数给新模型让路。客服回复说"没有的事"——但那个更强的版本,确实就在隔壁房间,门上了三道锁。