你盯着屏幕,反复检查自己的提示词。过去六周,Claude Code总在关键时刻掉链子——重构代码到一半突然跑偏,文件没读完就动手修改,思考过程戛然而止。你怀疑过CLAUDE.md写得不够清楚,调整过指令措辞,甚至怀疑是自己的开发流程出了问题。Anthropic的后台数据一切正常。你的直觉输给了他们的遥测系统。
直到4月23日,也就是GPT-5.5发布当天,Anthropic才发了一份事后分析报告,承认用户抱怨了六周的问题确实存在。而21天前,一位AMD的AI总监已经在GitHub上提交了6852次会话的取证分析。
打开网易新闻 查看精彩图片
Stella Laurenzo,AMD AI高级总监,前Google OpenXLA项目负责人。4月2日,她在Claude Code仓库提交了编号#42796的Issue,附带了6852次会话的遥测数据,指出了问题名称、发生日期,并用Anthropic自己的行为记录反证了故障存在。当时Reddit和Twitter上已经有开发者在记录类似症状。
Anthropic花了三周才确认这份外部审计。
事后报告记录了三个静默降级:3月4日至4月7日,默认推理强度从"高"降至"中",持续33天;3月26日至4月10日,一个缓存漏洞每轮对话都触发,持续15天;4月16日至4月20日,系统提示词长度限制将响应截断至25词,持续4天。Anthropic把第一项称为"错误的权衡"——这种措辞在厂商声明中极为罕见。
对多数报道而言,事件到此结束:漏洞已修,版本已发,额度已重置。但真正的故事藏在时间线里——六周的功能降级对付费用户不可见,直到有人在外部搭建了自己的取证基础设施,把证据摊在GitHub上。
漏洞是技术问题。三周确认延迟是运营问题。而数千名开发者在官方否认中自我怀疑的六周,是信任问题。
热门跟贴