打开网易新闻 查看精彩图片

Reddit 上的一则帖子让 Claude 用户短暂兴奋,随即陷入集体失望。有人声称 Opus 4.6 的百万 token 上下文窗口终于在 Claude Code 中可用,只需运行 `claude --model=opus[1m]` 即可。但现实远比标题残酷。

对普通订阅用户来说,这是一次彻头彻尾的误报。你或许能在 Claude Code 中选择 1M 模型,但实际运行时会遭遇“速率限制已达”或“不可用”的错误提示。Anthropic 的官方文档写得明明白白:1M 上下文仅向 API 按需付费用户和企业客户开放,Pro、Max、Team 及 Enterprise 订阅用户在发布时均无权访问。

即便是有权访问的用户也苦不堪言。一位用户尝试用它转换 Rust 工作区的构建工具,12 美元额度瞬间蒸发,他调侃“除了赌博,我从没烧钱这么快”。官方赠送的 50 美元免费额度听起来慷慨,实际使用中可能只够撑几个小时。当上下文超过 20 万 token,定价从每百万 token 5/25 美元跃升至 10/37.5 美元,premium 的名号名副其实。

技术层面的权衡更值得玩味。一位资深用户分享了他的 token 优化策略:在 5 万 token 以下的上下文中倾向内联工作,超过这个阈值则优先使用子代理,因为大上下文环境下每次工具调用的 token 税会迅速累积。他强调“绝不重复读取已读过的文件”,“用 Grep 定位相关片段后再读取大文件”,并禁止使用 ASCII 艺术风格的表格。这些细节暴露了一个残酷事实:即便拥有百万级上下文窗口,真正的挑战在于如何不让它成为 token 黑洞。

社区的愤怒情绪相当浓烈。有人质疑 Anthropic 为何不直接让所有订阅层级使用 1M 上下文,让配额消耗得更快即可,“这感觉像诱饵调包”。另一些人则从技术角度解释:保留百万级上下文需要占用更多 GPU 内存,减少了每个硬件单元能同时处理的并行对话数,Anthropic 可能是为了避免集群过载。

更深层的问题是上下文窗口的实用性。多位用户反映,随着对话延续,性能会显著下降。一位开发者直言“我真看不出 1M 上下文窗口有什么好的使用场景,Claude Code 的表现只会越来越差”。模型在超大上下文中无法记住所有历史内容,这是技术限制,而非营销话术能掩盖的事实。

一个有趣的对比是三年前的讨论。当时有人质疑 5000 token 的上下文窗口有何意义,如今我们站在百万级的门槛前,面对的却是相似的困境:更大的窗口意味着更快的消耗、更高的成本、更难以预测的性能衰减。

这场风波的本质不是技术突破的喜悦,而是商业策略与用户期待的错位。Anthropic 向企业客户和 API 用户提供前沿能力,普通订阅用户却只能隔着玻璃橱窗观望。一位产品经理在评论区自嘲:“给客户提供强大的新功能,人们却开始哭诉它有多糟糕。就像我让你的车跑得更快,你却抱怨'现在我要撞车送命了,你怎么能这样对我!'”

这番调侃背后是更严肃的思考:当技术进步的速度超越了大多数人的承受能力,谁才是真正的受益者?百万级上下文窗口或许是 AI 能力的里程碑,但对普通开发者而言,它更像是一个可望不可及的橱窗展示。

深度思考:

谁才是真正的受益者?

Claude Code 1M 窗口的现状,是对目前 AI 发展路径的一次有力矫正。它告诉我们,堆砌上下文窗口并不是通往 AGI(通用人工智能)的捷径

对于普通开发者和 Pro 用户,这虽然是一次失望的“诱饵调包”,但也让我们认清了现实:不要被营销数字冲昏头脑。 真正的 AI 生产力,不取决于你一口气喂给模型多少数据,而取决于模型能否精准、低成本地理解核心问题。

在这场风波中,唯一的受益者可能只有 Anthropic 的企业级销售团队。他们成功地向市场证明:只有昂贵的、按需付费的 API,才能承载这份“沉重”的百万级智能。而对于大众,这只是一场可望不可及的橱窗展示,提醒着我们——在算力民主化真正到来之前,我们都只是在为技术的“峰值性能”买单,而非为“实际价值”买单。

www.reddit.com/r/ClaudeAI/comments/1r70xa9/1m_context_window_for_opus_46_is_finally