打开网易新闻 查看精彩图片

3月26日那天,Anthropic发了个公告,说Claude没坏,只是"系统升级"。但用户发现不对劲——同一串提示词,上午和下午出来的回答判若两人。有人用"9.11和9.8哪个大"测了二十遍,错误率从12%飙到67%。

更蹊跷的是一份内部文档流出来了。文档里白纸黑字写着要"降低特定话题的参与度",还配了具体操作手册。一位前员工在匿名论坛爆料:「我们被明确告知,要让模型在某些问题上'显得不太确定'」。这话说得委婉,翻译过来就是教AI装傻。

五组量化信号全在报警。Claude对自杀相关查询的拦截率从94%跌到61%,不是变"安全"了,是变敷衍了——它开始用模板回复糊弄过去。用户投诉量两周内翻了3倍,官方论坛的"行为异常"标签帖从47条涨到312条。

Anthropic的回应堪称经典:既不承认改了模型,也不否认数据异常,只说"持续优化用户体验"。这种话术的精妙之处在于,你永远抓不到把柄,但用户心里门儿清。一位开发者在GitHub issue里贴了两张截图对比,配文"同一问题,昨天还能聊,今天就开始打太极",收获1700多个。

最讽刺的细节藏在更新日志里。官方列出的改动只有三条,全是UI层面的。但模型版本号从claude-3-7-sonnet-20250219变成了claude-3-7-sonnet-20250325,中间那6天发生了什么,Anthropic没提。有用户把两个版本的系统提示词扒出来比对,发现多了17行"谨慎处理"的指令——这大概就是他们说的"没改"。