新智元报道
编辑:犀牛
【新智元导读】Anthropic深夜上线Opus 4.6极速模式,速度提升2.5倍,价格竟暴力拉升600%。这一反常定价引发全球开发者集体破防,被指「吃相难看」,究竟是技术自信还是商业自杀?
就在刚刚,Claude Opus 4.6上线了一个极速模式(Fast mode)。
性能一致,速度却达到了正常模式下的2.5 倍!
官方称Fast mode已在Claude Code和API中提供。
切换方式也简单:在Claude Code命令行里输入/fast,提示符旁边会出现一个小小的闪电图标,Fast Mode即刻启动。再输一次/fast,关闭。
就这么简单,没有复杂的配置,没有额外的安装步骤。在VS Code扩展里也是同样的操作。
本来就是一条看似普通的发布,但消息一出,社区瞬间炸锅。
原因很简单——太贵了!
这个Fast Mode的新模式,速度确实快了,但价格也确实离谱——标准模式下Opus 4.6的输出定价是每百万token 25美元,而Fast Mode直接飙到了150美元。
整整6倍!
值得一提的是:Fast Mode的费用,不从你订阅套餐的额度里扣。
就算你这个月的订阅额度还剩一大半,但只要你打开了Fast Mode,从第一个token开始,就按Fast Mode的价格另外收费,一分钱都不抵扣。
它走的是一条完全独立的「额外消费」通道。
那花了这么多钱,是不是能买到一个更聪明的AI?
答案是:并没有。
Anthropic说得很明确,Fast Mode跑的还是同一个Opus 4.6,同样的模型权重,同样的智力水平,回答质量一模一样。
Claude Opus 4.6的标准API定价是输入5美元/百万token,输出25美元/百万token。
这个价格在前沿模型中已经不算便宜了——Anthropic自己都承认,Opus 4.6是Artificial Analysis智能指数排行榜上最贵的模型之一。
而Fast Mode的定价是:输入30美元/百万token,输出150美元/百万token。
你没看错,输入贵了6倍,输出也贵了6倍。
更让人倒吸一口凉气的是长上下文场景。
Opus 4.6是Anthropic首款支持100万token上下文的Opus级模型,当你的输入超过20万token时,标准模式的价格会几乎翻倍(输入10美元,输出37.5美元)。
而Fast Mode同样几乎翻倍——输入60美元/百万token,输出225美元/百万token!
堪称「token界爱马仕」。
有网友断言,如此高的定价会让Anthropic失去大量用户。
网友直呼如此定价在开玩笑。
产生亏损和破产从未如此之快。
Anthropic工程师Alex Albert则认为这是他过去一年中最大的生产力提升之一。
他强调,在某些方面,速度快的感觉就像模型智能提升一样有影响力。
AI工程师Dan McAteer表示,Fast Mode真的「非常快」,一分钟就能修复一个bug。
凭什么?
Fast Mode卖6倍价格,如果背后的模型是个平庸之辈,市场不会买账。
但不得不说,Opus 4.6确实很强。
它可能是截至目前,综合实力最强的大语言模型。
Artificial Analysis发布的Intelligence Index v4.0,是目前业界最全面的AI模型综合评估之一,涵盖GDPval-AA(智能体实务)、Terminal-Bench Hard(智能体编程)、SciCode(科学编码)、Humanity's Last Exam(多学科推理)等10项评估。
在这份榜单上,Claude Opus 4.6以53分的成绩拿下综合第一,领先OpenAI的GPT-5.2(xhigh)两分。
再看Arena.ai「大模型竞技场」平台,通过数以万计的真实人类盲测来给模型排名。
Opus 4.6在代码、文本、专家三大竞技场全部登顶第一。
其中代码竞技场的得分比前代Opus 4.5暴涨了106分,这个提升幅度远超之前Opus 4.5对Sonnet 3.7的领先幅度。
文本竞技场得分1496,硬生生压了Google的Gemini 3 Pro一头。专家竞技场领先第二名约50分,断层式领先。
在GDPval-AA知识工作性能评估中,Opus 4.6的Elo得分为1606,比GPT-5.2高出约144分,比上一代Opus 4.5高出190分。
这个差距不是「略有优势」,而是一个数量级的代差。
更具体地看硬核指标:在智能体编程评估Terminal-Bench 2.0中,Opus 4.6拿下了65.4%的高分,位列所有模型之首。
在ARC-AGI-2(抽象推理)测试中,它从前代的37.6%跃升至68.8%,接近翻倍。
但真正让开发者兴奋的,是两个工程层面的突破。
第一个是上下文窗口。
Opus 4.6是Anthropic首款在beta阶段支持100万token上下文的Opus级模型,前代Opus 4.5的上限是20万token。
这意味着你可以把整个大型代码库一股脑塞进去,而不用担心它「忘了」前面的内容。
在MRCR v2长上下文「大海捞针」测试中,Opus 4.6得分76%,而同门的Sonnet 4.5仅18.5%。
AI模型一个常见的痛点叫「上下文衰减」——对话越长,模型越糊涂。
Opus 4.6几乎消灭了这个问题。
第二个是自我纠错能力。
Anthropic内部团队在用Claude Code编写代码的过程中发现,Opus 4.6能够在不被提示的情况下,自主判断任务的难度分布——在简单部分快速推进,在复杂部分深度思考,在模棱两可的地方展现出更好的判断力。
它会在确定答案之前更仔细地重新审视自己的推理过程,主动推翻不合理的路径。
这种能力在代码审查和调试中尤为明显。
Anthropic甚至用16个Opus 4.6组成的「智能体团队」完成了一项壮举:在几乎没有人类干预的情况下,从零开始用Rust语言编写了一个10万行代码的C编译器,最终成功编译了Linux 6.9内核,还能跑通《毁灭战士》和PostgreSQL。
整个过程消耗了近20亿个输入token,烧掉了约2万美元的API成本。
这个实验不是为了炫技。
它证明的是:当模型足够聪明、上下文足够长、推理足够深入时,AI已经可以独立完成以前只有资深工程师团队才能胜任的复杂系统工程。
速度
本身就是一种新的智能
回到Fast Mode的争议。
6倍价格换2.5倍速度,从纯数学角度看,这笔账确实不太划算。
但商业世界从来不是纯数学。
对于一个正在紧急修复线上事故的工程师来说,每多等10秒钟,都意味着更多的用户流失和更大的业务损失。
对于用Claude Code快速迭代产品原型的独立开发者来说,省下的时间可以直接换算成更早的上线日期。
对于Anthropic来说,Fast Mode是一次市场试探——它想知道,在「智力」已经卷到极致的今天,「速度」这个维度能撑起多大的商业空间。
某种意义上,这也是整个AI行业正在经历的一个转折点。
过去三年,所有人都在追问「AI能做什么」。
而现在,当AI几乎什么都能做的时候,新的问题变成了「AI能多快做到」。
Fast Mode不只是一个加速按钮,它是Anthropic向整个行业发出的一个明确信号——在AI时代,速度本身就是一种智能。
而对于这种智能,大家愿意付多少钱?
这个问题的答案,最终将由每一个打开终端、输入/fast、然后看着账单深呼吸的开发者来决定。
参考资料:
https://x.com/claudeai/status/2020207322124132504?s=20
https://code.claude.com/docs/en/fast-mode#toggle-fast-mode
热门跟贴