01 Token 产业链全景图

打开网易新闻 查看精彩图片

02 什么是“Token”

Token,中文名“词元”,可以理解为 AI 识别文字的最小碎片,我们普通人以单个汉字、完整词语来阅读理解内容,而AI 会把语句拆解成零散的片段,一个字、半个字、一个词语、一串字母,甚至标点、空格,都能单独成为一个 Token。

打开网易新闻 查看精彩图片

AI 本质是数学模型,无法直接看懂人类文字,需要先将所有文字拆分成一个个 Token,再给每个 Token 编制专属数字编号,把文字转化为数字形式,AI 才能进行运算、理解语义并生成回答。

中文约 1.5 个汉字对应 1 个 Token,英文和标点也会单独折算。同时 Token 也是 AI 付费的计费标准,还决定了模型的上下文记忆上限,超出额度后,AI 就会遗忘之前的对话内容。

打开网易新闻 查看精彩图片

03 上游产业链--基础硬件

AI大模型的需求爆发,让 Token 消耗进入指数级增长通道。

从数据看,OpenRouter 平台的 Token 消耗量,从 2024 年初每周 120-150 亿的规模,增长至 2026 年 4 月的 20 万亿级别。

火山引擎豆包大模型的日均 Token 调用量,2026 年 3 月已突破 120 万亿,过去三个月实现翻倍,对比 2024 年 5 月首次推出时,涨幅达 1000 倍。

打开网易新闻 查看精彩图片

阿里发布的编程大模型 Qwen3.6-Plus,上线后单日 Token 调用量突破 1.4 万亿,刷新了全球单模型单日调用纪录。

打开网易新闻 查看精彩图片

Token 消耗的爆发式增长,直接拉动了 AI 基础设施的需求,上游元器件迎来全面涨价潮。AI 算力芯片供不应求,内存、硬盘、CPU 等配套硬件环节,自 2025 年下半年以来均出现供给缺口,开启涨价周期。

根据 TrendForce 统计,2026 年第一季度,DRAM 内存价格预计环比上涨 105%-110%,NAND 闪存及企业级 SSD 价格涨幅为 53%-58%;服务器 CPU 方面,Intel 及 AMD 厂商均宣布涨价 10%-15%。

打开网易新闻 查看精彩图片

03-1、核心部件--内存芯片

DRAM

大模型 Token 消耗的指数级爆发,催生了对高带宽、低延迟、大容量 AI 存储的刚性且爆发式需求。DRAM 是 CPU/GPU 运行的高速临时存储,断电清空,直连核心芯片,为算力提供高速缓冲,内部架构分三大模块,可类比高效数据车间。

据 TrendForce,2024 年全球 DRAM 市场规模 958.63 亿美元,同比增 84.83%,存储赛道强势复苏。

打开网易新闻 查看精彩图片

全球存储巨头全力冲刺 DRAM 技术升级:三星率先量产第六代 10nm 级 DRAM,送出 HBM4 样品并敲定 2026 年量产,领跑行业;美光推出首款 1γ 工艺内存样品,筑牢旗舰机型 AI 性能硬件基础。

国产厂商同步实现关键突破:长鑫多款高速内存通过国际权威认证,支撑消费电子与服务器升级;华邦自研 16nm DRAM 芯片,适配工业及嵌入式设备需求。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

HBM

AI 算力需求暴增,传统传输带宽与 GPU 内置缓存严重制约性能。HBM 以 3D 堆叠 + 硅通孔工艺打造高带宽低延迟高端内存,突破算力瓶颈。

HBM 是高增长赛道:2024 年市场规模 56.1 亿美元,预计 2034 年达 570.9 亿美元,十年年均增速 26.1%。技术壁垒高,仅三星、SK 海力士、美能量产,2025 年二季度市占率分别为 17%、62%、21%,SK 海力士领跑。

厂商缩减低利润传统存储产能,转向 HBM、DDR5 等高端产品,传统存储产量持续下降;且 HBM 晶圆消耗约为同容量传统 DRAM 的 3 倍,叠加工艺复杂,整体产能提升受限。

打开网易新闻 查看精彩图片

03-2、核心能源--电力

Token是历史级别的吞电怪兽。2025年,电力故障是全球数据中心宕机首要诱因,当年占比达 54%,远高于其他故障;算力密度提升持续推高数据中心用电需求与稳定性要求。

打开网易新闻 查看精彩图片

2023 年美国数据中心耗电 176 太瓦时,占全美用电 4.4%;IEA 预计 2028 年将达 325-580 太瓦时,年均增速 26.9%,占比升至 6.7%-12%。

打开网易新闻 查看精彩图片

远距离输电中,提升电压是兼顾低损耗、低成本的最优方案。我国能源供给集中于西部、用电需求集中于东部,供需错位下,特高压如同 “电力高铁”,可低损耗、高效率完成西电东送,既降本增效,也保障全国用电稳定安全,而其落地运行完全依赖核心电网设备的支撑。

打开网易新闻 查看精彩图片

特高压场景下,四大核心设备构成了电网的关键骨架:变压器作为调压枢纽,负责电压变换;开关设备(GIS)如同 “总闸手”,控制电流通断、切除故障;换流阀作为能量转换器,实现交直流转换;二次设备则是 “电网大脑”,以毫秒级精准控制实现调度保护这些设备是特高压技术的核心壁垒,也是我国能源供应安全的关键保障。

打开网易新闻 查看精彩图片

下方扫码直接加入:

04 中游产业链--Token工厂

Token 是由大模型厂商通过自研的专属分词算法生成的,每一家主流大模型厂商都有适配自家模型的分词体系用来把文本内容转换成模型可识别、可计算的 Token 编码,不同厂商生成方式不同。

04-1、Token工厂--生产和计费

以后的数据中心会彻底换个定位,不再只是单纯存文件的机房,而是变成专门批量生产 Token 的工厂。

黄仁勋明确提出,未来评判一家 AI 企业实力,核心标准就是耗一度电能产出多少 Token。

Token 工厂的逻辑很简单,把传统数据中心的通用存储、普通计算功能重新改造,变成一套工业化生产模式。

靠电力、数据、算法三样基础条件运转,电力提供算力支撑,数据当作生产原料,算法作为核心生产工艺,最后批量产出标准化的 Token,支撑文案创作、代码编写、图文交互等所有 AI 功能落地。

打开网易新闻 查看精彩图片

大模型计费逻辑很简单,总费用由输入 Token 和输出 Token 两部分组成。提问内容、系统提示、历史对话以及上传的图文资料,都会折算成输入 Token 计费。模型逐字生成回答需要巨大算力,消耗更多资源,所以输出 Token 价格通常是输入的 2 至 3 倍。

由于单个 Token 价值极低,行业统一采用百万 Token 作为标准计价单位,一百万 Token 约折合 50 万个汉字。

目前市场主要有四种计费方式:个人和散户适合按量计费;企业可采购 Token 套餐降低单价;高频用户可选会员订阅;机构私有化部署则按服务器年费收费,不限 Token 使用量。

打开网易新闻 查看精彩图片

04-2、全球消耗情况

AI 应用场景拓展带动算力指数级增长,作为 AI 交互核心单位的 Token 消耗量同步攀升,其商业价值由计算效率与产出价值双轮驱动,AI 输入输出均以 Token 为单位,计算复杂度与 Token 消耗正相关;

据 OpenRouter 数据,2026 年 3 月 16 日 - 22 日全球大模型周调用量达 20.4 万亿 Token,环比增 20.7%,其中中国为 7.359 万亿 Token(环比 + 56.91%),美国为 2.954 万亿 Token(环比 - 10.32%),中国已连续三个周期超越美国。

打开网易新闻 查看精彩图片

OpenRouter 数据显示,2026 年 3 月 23 日全球 AI 模型周调用量排名前九,国产模型占六席且包揽前四小米 MiMo V2 Pro 以 40% 占比登顶,阶跃星辰 Step 3.5 Flash(free)、MiniMax M2.7 分列二三,其余国产模型还包括 DeepSeek V3.2、GLM 5 Turbo、MiniMax M2.5。

打开网易新闻 查看精彩图片

04-3、大模型推动

大模型训练与推理需求持续扩张,Token 消耗量随之大幅增长。

训练环节,模型从密集预训练向混合专家架构演进,参数规模迈向十万亿级,叠加多模态数据复杂度提升,单任务计算量呈指数级增长;头部厂商推进万亿参数模型训练,所需训练数据规模跃升至十万亿 Token 级。

打开网易新闻 查看精彩图片

推理环节,据德勤预测,2026 年推理算力占比将达 66%,首次超过训练算力,AI 进入 “推理驱动” 阶段;伴随应用场景下沉与 AI Agent 规模化落地,推理端 Token 需求将进一步扩大。

打开网易新闻 查看精彩图片

大模型市场2025 年起进入应用深化期,应用场景持续拓宽,商业模式逐步清晰。

据艾媒咨询数据,2024 年中国大模型市场规模达 294.16 亿元,预计 2026 年将增至 738.57 亿元,2024-2026 年复合年增长率为 58.5%。

打开网易新闻 查看精彩图片

05 下游产业链--应用与出海

05-1、Token出海--优势显著

国内大模型的实际使用成本,远低于海外主流大模型。根据专业机构的测试数据,完成同一轮标准测试,国内 MiniMax M2.5 的成本仅需 125 美元,而海外 Claude Opus 4.6 的测试成本高达 4970 美元,GPT5.2-Codex 也需要 3244 美元,成本差距达到几十倍。

打开网易新闻 查看精彩图片

海外模型成本更高,核心有两个原因。

一是国内模型的 Token 单价更低,MiniMax M2.5 的输入、输出 Token 价格,分别仅为 Claude Opus 的 6%、5%,也仅为 GPT5.2 Codex 的 17%、9%;

二是国内模型完成相同任务消耗的 Token 数量更少MiniMax M2.5 单次测试仅消耗 58M Token,仅为 Claude Opus 的 36%、GPT5.2-Codex 的 29%。单价更低 + 用量更少,最终让国内模型的使用成本形成了极为显著的优势。

打开网易新闻 查看精彩图片

05-2、出海案例--Minimax

2023 到 2025 年,MiniMax 的收入越来越靠海外市场支撑,全球化布局效果十分突出。2024 年、2025 年,公司海外收入分别达 2130 万、5770 万美元,占总营收的 70%、73%,是增长的核心动力;同期国内收入仅 920 万、2140 万美元,占比 30%、27%。

打开网易新闻 查看精彩图片

业务端,公司核心板块均实现翻倍以上增长。AI 原生产品收入从 80 万美元涨到 5310 万美元,收入占比从 22% 提升至 67%;开发平台和 AI 企业服务收入,也从 270 万美元涨到 2600 万美元,充分证明了公司的 AI 商业化落地能力。

打开网易新闻 查看精彩图片

05-3、AI应用

Token 的下游应用几乎覆盖了所有 AI 使用场景,不管是日常聊天、写文案做方案,还是写代码、生成图文视频,所有 AI 功能都要靠 Token 这个基础单元来实现。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

下方扫码直接加入:

打开网易新闻 查看精彩图片