前不久,Anthropic 停止允许订阅用户通过 OpenClaw 等第三方工具接入 Claude API。理由并不复杂,一个OpenClaw 代理运行一天,消耗的算力成本在1000美元到5000美元之间,而用户每月只付了200美元。

打开网易新闻 查看精彩图片

Claude Code 负责人 Boris Cherny在 声明里说,订阅服务“并非为这些第三方工具的使用模式而设计”。这句话没有错,但它遮住了一个更基础的问题:没有任何订阅服务能被设计成覆盖这种使用模式。Agent 场景下的 Token 消耗量没有上限,也没有历史数据可以参考,任何固定月费都是在对一个无法建模的变量做猜测。

3月底,中国国家数据局公布了另一组数字:中国日均 Token 调用量突破140万亿,两年增长超千倍。同期,字节的 Token 调用量跻身全球三甲,与 OpenAI、谷歌并列。无问芯穹CEO 夏立雪在一场行业论坛上描述这个增速时说,上一次看到类似的曲线,是3G时代手机流量从每月100MB开始普及的时候。当时没有人预料到,流量放开之后会跑出抖音、微信和外卖。

两件事放在一起,描述的是同一个现实:Token的消耗正在以罕见的速度增长,但支撑整个行业运转的定价逻辑,依然建立在两年前聊天机器人时代的假设之上,即用户的使用量是可以被历史数据预测的,轻度用户会自然地覆盖重度用户,整体成本可以被摊平。

智能体们打破了这个假设的每一个前提,市场变化的速度,超过了任何定价模型的响应能力。纵观过去两年 Token 市场的演化,每一个优势窗口的终结,都由同一个逻辑驱动,即当竞争者能够复制优势——规模可以被追赶,算法可以被开源,场景可以被大平台的分发能力碾压。

Token 之所以不同于电力、钢铁等传统生产要素,在于它具备独一无二的“可编程性”。没有任何一种传统生产要素,能仅凭“指令不同”就将自身价值改变十万倍。这种可编程性,是 Token 作为新型生产要素的本质特征,也是理解当前 AI 经济混乱的前提。

理解这一点,需要先建立量级感。36氪报道,OpenAI API 日均处理约21.6万亿 Token,谷歌Gemini 日均约43万亿,而中国的140万亿约为前两者之和的两倍有余。摩根大通预测,仅中国的AI推理 Token 消耗,就将在五年内再增370倍。这个量级本身说明了,Token 已经是一个经济规模指标。

打开网易新闻 查看精彩图片

此外,Token 的大量消耗使用发生在公有云的统计口径之外。金融机构在本地服务器上跑票据识别,车端智能座舱的对话在车内闭环完成,工业机器人的视觉模型以毫秒级响应运行在边缘设备上,这些都不会出现在任何公开数据里。一位从业者估算,非公有云API的调用量至少是公有云的五到十倍。

随着模型复杂度的增加,推理成本也相应上升。GPT-5级别的系统每次查询可能消耗约18瓦时,而进行扩展推理时则可能消耗高达40瓦时。 差距来自两个地方,一是模型大小,参数越多,生成每一个Token所需的计算量就越大;二是推理模式,新一代模型在输出每一个可见 Token 之前,会在内部进行大量隐式推演,用户看到一个字,模型内部可能已经“想”了上百步。单个可见 Token 的真实成本,被这个思考过程成倍放大了。

当整个行业用同一个价格逻辑去覆盖价值差距十万倍的使用场景时,系统性的定价混乱就不是偶然,而是必然。

因此,所谓平均 Token 价格,就像用平均客单价来描述一个既有路边摊又有米其林餐厅的商圈,即便数字正确,但毫无意义。Collis 和 Brynjolfsson 曾在2025年的估算显示,生成式AI在2024年仅为美国消费者创造的消费者剩余就高达约970亿美元,用户实际获得的价值,远超过他们支付的金额。这个数字的绝大部分,集中在高价值应用场景。

在 Token 经济中,竞争优势是跟随技术跃迁、产品形态转变与市场结构共同决定的时间窗口。每一个窗口的受益者,都在无意识中为下一个颠覆者铺路,而能在多个窗口连续卡位的玩家,才是真正的赢家。

2025年初,算法是 Token 第一个窗口。DeepSeek V3 发布后,混合专家架构(MoE)将同等能力的推理成本压低了一个数量级:模型内部包含多个专家子模块,每次推理只激活其中一小部分,在保留完整模型能力的同时,将单次推理的实际计算量大幅压缩,将推理成本下降了一个数量级。

但算法窗口的悖论在于,打开它的那把钥匙,同时也是关上它的锁。DeepSeek 选择了开源,将核心模型权重和架构设计公开,吸引全球开发者接入生态。这个选择在短期内快速扩大了市场份额,在中长期则主动压缩了算法领先的窗口期。当架构创新被开源,整个行业的 Token 成本基准被同步重置,算法优势也就从专有壁垒变成了公共基础设施。

同年底,规模成为第二个窗口。火山引擎将互联网流量战的打法平移了过来,用大规模的机场广告宣告自己在 Token 市场的存在。谭待在4月2日的最新的业务进展分享中提到,两年之内,火山引擎的 Token 调用量增长了1000倍,万亿级 Token 消耗企业增至140家。

不过规模优势存在一定时效性,谭待在接受《第一财经》的采访时也谈到,在 Token 大规模调用量中,包含了大量无效算力。谭待以解数学题为例:枚举法计算量大,模型能力不足就会采用类似方式,造成无谓消耗;更优秀的模型能找到简洁解法,优化空间很大。规模数字的背面,是大量本可以避免的算力浪费。当竞争从“消耗了多少”转向“每个Token创造了多少价值”时,规模窗口就开始关闭。

场景,是当前 Token 竞争最激烈的地方。智谱、MiniMax、月之暗面没有字节的流量规模,也没有阿里、腾讯的云计算生态,但它们在 To B 高价值场景里找到了立足点。智谱与 MiniMax 的市值一度超过快手等传统互联网公司,充分说明场景窗口在特定阶段能创造的估值溢价有多大。

但这个窗口如今也正在收窄。在一场行业论坛上,杨植麟问智谱CEO 张鹏:你们为什么涨价?张鹏的回答是,完成一个 Agent 任务消耗的 Token 量,是回答简单问题的十倍甚至百倍;长期依赖低价竞争,对整个行业都没有好处。

这场对话背后,一场更大规模的场景争夺战正在展开。字节通过飞书和扣子(Coze)平台,将大模型能力直接嵌入企业的协同工作流与海量流量节点;腾讯依托微信生态与企业微信,掌握着企业触达并服务客户的最短社交链路;阿里则将旗下 AI 业务统筹为 ATH 事业群,Token 消耗被直接打包成企业数字化底座的一部分。

这三家公司拥有在企业端已经建立多年的信任关系和系统整合能力。独立厂商依赖模型质量差异维系的场景优势,正在被这种结构性优势快速压缩。

Token效率是当前正在形成的第四个窗口,也是最难被快速复制的一个。这一窗口的竞争,目前集中在 Coding 场景。Anthropic 封禁第三方工具后,大量习惯于低成本接入 Claude 的用户开始寻找替代方案。OpenAI 迅速将自己定位成更易上手的选择。但 Anthropic 押注的是训练和运行模型的效率,OpenAI 的心态是奥特曼总能筹集到更多资金支持算力规模。

用资本堆算力换市场份额,是一种可以奏效但难以持续的策略。截至今年3月底,OpenAI 的 API 每分钟处理量已突破150亿 Token,而2025年10月这个数字还是60亿。但算力供给的增速远远跟不上,GPU 租赁价格在两个月内涨了48%,英伟达最新一代 Blackwell 芯片的每小时租用费用已升至4.08美元,数据中心的建设周期以年计算。OpenAI 甚至部分暂停了 Sora 视频生成工具,腾出计算资源给编码和企业级产品。

打开网易新闻 查看精彩图片

Anthropic 看到的是 Harness Engineering 这条路,通过重新设计 Agent 的调度架构,从系统层面减少无效 Token 消耗,让更少的算力做更多的事。这是在算力稀缺的现实约束下,重新定义效率本身的含义。

而在中国市场,阿里云也开始切入效率窗口,其将 Token 的定价、调用追踪与企业账单管理整合进统一的云计算基础设施。吴泳铭提到,很多企业已经不把 Token 消耗当IT预算,而是当作生产资料和研发成本来核算。这是一种更慢的建法,但也更难被颠覆。

在算力供给触及物理极限、需求仍在加速增长的现实下,真正稀缺的不是便宜的 Token,而是在有限算力约束下能产出最高价值密度的 Token。

在算力稀缺、定价体系失效、Agent 消耗失控的多重压力下,Anthropic 是迄今为止唯一一家不只是调整了定价策略,还从工程架构层面重新回答了“Agent应该怎么运行”这个问题的公司。封禁是被动应对,Managed Agents 才是主动给出的答案。

打开网易新闻 查看精彩图片

这是 Harness 框架的结构性缺陷:每一套 Harness 都是对某一时刻模型能力的快照。模型在持续进化,但快照被当作永久规则执行。模型迭代越快,这种错位就越严重。

Token 经济的新竞争,已经细微到“谁能让每一个 Token 产出更高的价值”。罗福莉在自己那篇浏览量超过73w+的帖子最后写道,真正的出路不是更便宜的 Token,而是模型和 Agent 的协同进化。

打开网易新闻 查看精彩图片

这句话说的不只是技术路线,也包括整个行业定价逻辑应该完成的转变:从按量计费,到按价值定价;从管理成本,到创造结果,这是整个行业需要完成的转变。

Anthropic 在 Harness 架构上的探索,给出了目前最清晰的一个方向。但中间这段路,还很长。