Claude的免费用户平均每条对话成本是ChatGPT的3.7倍——不是因为它更贵,而是因为你还没想完,额度就归零了。
Anthropic给Claude塞了200K的上下文窗口,全行业最长。这个数字足够吞下整本《了不起的盖茨比》还有余量。但免费用户实际能用的,是15到40条消息/5小时,上传一个PDF就腰斩,开"扩展思考"再腰斩。有人实测:两条提示,直接撞墙。
越懂行,死得越快
Claude的残酷之处在于它奖励专业用户的方式——惩罚。
长文档分析?烧token。迭代调试代码?烧token。多轮深度对话建立上下文——这恰恰是Claude比竞品强的地方?烧得最快。产品逻辑拧巴得像健身房办卡:器械越好用,你来得越勤,门越早对你关上。
Anthropic没公布过免费档的日token硬上限。没有进度条,没有预警,只有对话进行到一半时突然弹出的红色提示。用户形容这种感觉:"像在看不见菜单的餐厅里数卡路里。"
一位开发者在Reddit吐槽:同样的任务,竞品30分钟干完,Claude免费版拆成了三天——不是三天连续用,是三天里凑够五个"冷却窗口"。
Anthropic的算盘:用体验换转化
限制策略背后是清晰的商业算计。Claude的推理成本确实高,但免费层的收紧还有另一层意图:把重度用户往Pro版(20美元/月)赶。
问题在于转化路径设计得太粗暴。竞品也有限制,但至少给透明规则:GPT-4o免费用户有明确的消息配额,用完知道等多久。Claude的"动态限制"像盲盒——今天40条,明天同等工作量可能15条,全看系统心情。
这种不透明制造了焦虑,而焦虑驱使用户要么付费逃离,要么干脆流失。一位产品经理在X上写:"Claude让我养成了每发一条消息前深呼吸的习惯,这不是健康的产品关系。"
200K窗口的讽刺
最魔幻的是技术能力与商业策略的割裂。
Anthropic花大力气把上下文窗口拉到20万token,理论上能处理数百页文档的连贯分析。但免费用户根本触不到这个能力的皮毛——还没读到文档第三章,额度已空。长上下文成了橱窗里的展品,看得见,用不起。
对比OpenAI的策略更有意思:GPT-4o的上下文短得多(128K),但免费层给足喘息空间,让用户至少能完整跑通一个中等复杂度的任务。Claude反着来:能力上限极高,入口极窄,窄到多数人只能窥见一角。
这种设计或许筛选出了付费意愿最强的用户,但也放跑了大量潜在拥趸。毕竟,没人会爱上一个随时可能挂断的电话。
限制本身不是问题,问题是傲慢
AI产品的免费层都在收缩,这是行业现实。Claude的特殊之处在于它把限制做成了黑箱。
不公开规则、不给预警、让"用得好"成为被惩罚的理由——这三件事叠加,传递的信号很清晰:我们优先保护算力,而非尊重你的时间。一位用户在Anthropic论坛的帖子获得高赞:"我愿意为好用付费,但讨厌被胁迫付费。"
讽刺的是,Claude的写作能力和推理深度确实顶尖。很多用户骂完限制,第二天又回来——因为替代品做不到同样的事。这种"不得不爱"的处境,或许是产品团队敢于强硬的本钱。
但本钱总有耗尽的一天。当Gemini和GPT-5的长上下文能力追上来,当用户受够了猜谜游戏,Anthropic会发现:技术领先窗口期换来的用户耐心,比200K token更容易耗尽。
一位Claude Pro订阅者说,他升级不是因为需要更多额度,而是"厌倦了每次打开免费版都像在赌桌上押注——这条消息发出去,会不会就是最后一条?"
如果AI助手的终极形态是让你在使用前深呼吸,那它离被替换还有多远?
热门跟贴