打开网易新闻 查看精彩图片

去年Claude 4.6系列上线时,Anthropic(人工智能公司)承诺"更大上下文窗口、更强推理能力、更稳定的服务"。但没人告诉他们还藏了一手——你的20美元Pro订阅,买不来无限畅聊

《Tom's Guide》编辑Ryan Morrison最近撞上了这堵墙。他正在赶一个大型项目,Claude突然弹窗:"You have reached your message limit until 4 PM." 不是服务器宕机,不是模型抽风,就是单纯的用量封顶。更讽刺的是,他已经是付费Pro用户。

限流机制:Anthropic到底在算什么账

限流机制:Anthropic到底在算什么账

Claude 4.6系列目前有两档主力模型:Sonnet(轻量快)和Opus(重载强)。Pro用户的配额按模型分开计算,且Anthropic从未公开具体数字。Morrison的实测反馈是:高强度使用下,Opus大概撑不过几小时密集对话。

这种"黑箱配额"的设计逻辑,Anthropic官方解释得很模糊——大致意思是Opus运算成本高,需要平衡负载。但用户侧的体验是:工作流到一半被强制中断,且无法预知还剩多少额度。

对比OpenAI的GPT-4,后者虽也有速率限制,但至少在API文档里写得清楚:每分钟多少token、每小时多少请求。Claude的消费端产品却把规则藏进用户协议深处,等你撞墙了才知道存在。

被迫养成的习惯:从"无限依赖"到"精打细算"

被迫养成的习惯:从"无限依赖"到"精打细算"

Morrison描述了自己的转变过程。过去几个月,他把Claude当成"数字实习生"——随手丢需求、反复追问、让模型迭代方案。限流事件后,他被迫重新设计工作流

第一,任务分级。 简单查询扔给Sonnet,只有复杂推理才调用Opus。相当于把Claude从"全能助理"降级为"专家顾问",按分钟计费的心理暗示极强。

第二,本地缓存。 关键对话手动保存,避免重复上下文消耗配额。以前依赖Claude的线程记忆,现在得自己当档案管理员。

第三,备用切换。 主账号撞墙后,切到备用方案——Gemini、GPT-4、甚至本地模型。Morrison的比喻很精准:这感觉像"手机没电时翻找充电宝",狼狈且打断心流。

行业信号:算力焦虑正在重塑产品形态

行业信号:算力焦虑正在重塑产品形态

Claude的限流不是孤立事件。2024年以来,头部AI公司的共性趋势是:把"无限使用"从默认选项里删掉。OpenAI推了GPT-4 Turbo的"有限承诺",Google给Gemini Advanced加了隐性天花板,Anthropic则是最直白的一个——直接弹窗告诉你"到此为止"。

背后的经济账很简单。大模型推理成本按token计价,重度用户的边际成本可能超过订阅费。但产品设计的选择暴露了各家策略差异:OpenAI选择悄悄降速,Anthropic选择明牌限流,Google选择模糊处理。

Morrison的观察是,这种变化正在改变用户的行为模式。他从"随时提问"变成"先想清楚再问",从"迭代探索"变成"一击即中"。效率可能提升了,但那种"和AI协作"的流畅感被打断了。

用户端的适应实验

用户端的适应实验

限流事件后,Morrison做了几组对照测试。他发现Sonnet处理80%的日常任务足够用,Opus的真正优势只在代码生成、长文档分析等少数场景。这个发现让他重新校准了预期——不是Claude变弱了,是自己之前用得太奢侈

另一个意外收获是跨模型协作。他把Claude的推理结果丢给Gemini交叉验证,用GPT-4补充Claude不擅长的实时信息检索。多模型策略反而降低了单点故障风险,虽然操作复杂度上去了。

但这种适应是有门槛的。普通用户没有动力研究模型差异,更可能的选择是:撞墙一次,换平台,或者干脆放弃重度使用。Anthropic的限流设计,本质上是在筛选用户——留下愿意花时间优化工作流的人,流失追求"开箱即用"的人。

Morrison在文章结尾留下了一个未解的问题:如果AI公司的商业模式注定无法支撑"无限使用",那么"AI助手"的产品定义本身是否需要重写?我们是在购买一个工具,还是在租赁一个有时限的认知外包服务?