打开网易新闻 查看精彩图片

国家数据局最近扔出一个数字:日均Token调用量突破140万亿。这串零多到让人眼花的指标,很快被解读成中国成了AI时代的"算力输出大国"。

但先别急着开香槟。Token这东西,本质上是大模型处理信息的最小单位,现在却被当成一种新的计价货币来买卖。你在OpenAI、Anthropic上买的不是模型,是Token的消耗量。它确实有点像"硬通货"了——但问题是,印钞机转得再快,不代表你掌握了铸币权。

中国Token的增长速度用"失重"形容不过分。从千亿到万亿再到百亿亿级,这不是技术小步快跑,是基础设施在批量释放。AI从实验室的炫技产品,变成了水电煤一样的底层设施,Token就是这个过程中的"流量单位"。

价格曲线是第一条推手。DeepSeek、阿里云、百度过去一年把Token价格压到地板以下,AI从"用得起才用"变成"随便试试也不心疼"。门槛被重新定义,市场结构跟着洗牌。

第二条推手更隐蔽。"东数西算"把西部的低价电力变成东部可调用的算力,过去卖不掉的电,现在通过数据中心变成了全球按需调取的Token。这套"能源—算力—服务"的链条,确实是中国独有的资源转化能力。

而且质量没掉队。代码生成、长文本、多语言这些硬指标,国产模型已经能在大量场景里对标OpenAI。再加上开发者往往要的是"够用且便宜"而非"极限性能",工程上的可用性叠加成本优势,全球调用请求确实在往中国模型倾斜。

但把镜头从调用规模切到商业价值,画面就有点尴尬了。

非凡产研去年8月的数据:全球AI公司月活,中国占46%,美国43.2%;全球AI收入Top100的经常性收入,美国头部拿走91.9%,中国只占3.5%。

感受下具体落差:百度月活7.3亿,字节3.72亿,DeepSeek 2.05亿,美图1.95亿;收入侧,OpenAI一家ARR约174.75亿美元,Anthropic 72.68亿美元,中国收入榜总和才12.87亿美元。

打开网易新闻 查看精彩图片

流量在中国,收入在美国。这个倒挂至今没扭转。MiniMax海外收入占比超70%,Kimi海外收入超过国内,但整体结构性错位依然明显。

所以140万亿Token的真正含义是:我们赢了产量,还没赢含金量。Token变成"资源"之后,得看"定价权"在谁手里。

拆解这些Token会更清醒。复杂决策、专业分析、科研辅助是高价值场景,付费能力强、用户粘性强;测试调用、低质内容生成、大规模自动化任务数量庞大,经济价值有限。两者统计上没区别,产业结构里完全是两码事。没有高价值场景托底,规模膨胀容易变成虚胖。

还有一个结构性因素被常忽略:中国市场的"封闭性"放大了数字。

OpenAI、Anthropic、Gemini在中国大陆的直接使用和商业化部署受限,大量本该分流到全球多家厂商的需求,被集中留在本土。美国开发者可以在多个模型间自由切换(包括部分中国模型),中国应用调用天然集中在国产模型上。

这种"内聚化"让Token规模呈现集中放大效应。统计上强化了领先,但简单等同于全面竞争力就会误判。中国的Token领先,是真实供给能力提升叠加结构红利,不是纯靠外部环境。但长期封闭竞争的风险在于:规模增长容易掩盖结构差异,尤其是高价值场景和顶级能力的差距判断。缺乏与全球最强模型的持续对标,Token领先可能停留在"使用密度",转不成"价值密度"。

为了快速起量,不少国产模型选择了更现实的路径:接口兼容OpenAI标准。类似的messages结构、相似的参数设计、"只改base_url即可切换"——迁移成本几乎为零,这是Token规模暴涨的另一推手。

但隐患也在这里。当一种生态的"语言"和"接口范式"已被定义,后来者规模反超也难在规则层面夺权。Anthropic能成为OpenAI最强劲对手,恰恰在于没完全兼容,而是保持一定相似性的同时自建API体系,借AWS生态分发。牺牲了迁移效率,换来了标准话语权的空间。

规模和规则从不等同。历史反复证明:用得最多的系统未必制定规则,出货量最大的产品未必掌握标准。当前API范式、开发框架、企业级集成路径,仍深受OpenAI、微软、谷歌体系影响。

打开网易新闻 查看精彩图片

于是出现矛盾结果:中国Token规模快速领先,规则与生态层面仍是"参与者"。这种"规模领先、规则滞后"的错位,是当前最值得警惕的隐忧。

140万亿回答的是"量",决定未来的是"结构"。中国AI真正要跨的坎,不是再多产些Token,而是一次深层结构跃迁。

第一,从成本优势走向不可替代能力。低价能打开市场,难长期锁定市场。充分竞争阶段,纯价格优势往往演变为持续内卷。定价权来自关键场景的不可替代性——更强的推理能力、更稳的企业级表现、特定行业的深度优化。把"可用"变成"必须用",我们在编程、Agent等局部有领先迹象,整体仍需向高阶跃升。

第二,从接口兼容走向标准定义。AI生态最隐蔽的控制力不在模型,在接口、工具链、开发范式。谁定义这些,谁决定开发者怎么建应用、企业怎么接AI。长期当"兼容者",规模再大也难生态主导。只有中国厂商开始在接口设计、开发框架、应用范式上提出自己的标准,规则竞争才真正开始。

第三,底层技术与系统能力的持续突破。Token只是表象,背后是芯片、算法、工程体系的综合能力。英伟达仍握关键算力节点,顶级模型能力仍集中在欧美。缺乏持续底层创新,Token的成本和规模优势难以长期维持。

第四,也是最容易被忽视的:高价值场景的应用。未来决定格局的不是谁生成更多Token,是谁掌握最有价值的那部分。金融、医疗、工业、科研对模型能力、稳定性、可信度要求远高于普通应用,商业价值也更高。只有这些场景建立优势,Token规模才转得成真正的产业能力。

140万亿Token确实可喜,说明中国已在AI时代占据重要位置,甚至正成为全球重要算力供给方之一。但真正决定长期格局的,从不是单一维度领先,而是多层结构协同演进。

分水岭不在于Token能否继续增长,是中国能否从"生产更多Token",走向"定义Token如何被使用"。这一步完成,Token才不只是高速增长的数字,而是真正具备产业化能力的基础资源。

一位做海外AI应用的朋友最近吐槽:他的产品调国产模型,成本是降了,但每当要向企业客户解释"为什么不用OpenAI"时,总要多费三页PPT。这多出来的解释成本,或许就是当前Token繁荣最真实的注脚。