每经记者:涂颖浩 每经编辑:陈旭

当ChatGPT点燃的全球AI训练竞赛逐渐开始白热化,一个更深层次的产业变革正在悄然发生。2025年,被业界普遍视为“AI应用大爆发的元年”,智能体(Agent)正从概念走向现实。而在应用爆发的背后,是百倍增长的推理算力需求与高昂成本之间的尖锐矛盾。在这场由“训练”转向“推理”的算力范式革命中,中国AI芯片产业能否抓住历史性机遇?

在日前举办的雪球嘉年华会议期间,云天励飞(SH688343)董事长兼CEO陈宁在接受《每日经济新闻》记者专访时表示,人工智能就像当年第一台蒸汽机、第一个灯泡、第一台计算机,可以说人工智能是未来五年科技突破的关键。他认为,中国在算法上已能够将跟世界先进水平之间的差距缩短至数月,甚至在应用、数据、能源、系统集成方面更有优势。

在陈宁看来,推理芯片赛道是中国实现“超车”的关键。这场关于重新定义算力的竞赛才刚刚吹响号角,中国第一次与全球站在相近的起跑线。“我们有机会,也必须抓住这个机会。”

打开网易新闻 查看精彩图片

陈宁在雪球嘉年华上发表演讲 图片来源:受访者

从训练到推理——AI产业的分水岭与中国的“爱迪生”机会

在陈宁看来,人工智能产业的发展可以清晰地划分为三个阶段。

第一阶段是2012年至2020年的“智能感知”时代,以小模型驱动特定场景的解决方案为主,市场的特点就是碎片化,难以规模化复制。

第二阶段是2020年至2025年的“AIGC”时代,大模型展现出惊人的内容生成能力,但除了英伟达这家“卖铲人”,整个行业仍在巨额投入中寻找盈利闭环。

“但2025年,我们进入了第三个阶段——‘Agentic AI’时代。”陈宁强调。无论是豆包手机、AI眼镜还是人形机器人,其本质都是将大模型、操作系统与硬件载体深度融合的智能体。它们能独立完成复杂任务,替代部分工作岗位,这才是AI引发产业革命的真正形态。这个时代的核心特征是应用爆发,而应用背后所需的算力,从以训练为主正转向以推理为主。

“这是一个根本性的转折。”陈宁表示,训练追求极致性能和迭代速度,而推理要大规模商业化,必须讲求市场经济,追求极高的性价比。

他以19世纪初英国化学家戴维发明了世界上第一个实验性电灯为例,直到70多年后,爱迪生通过商业化改良、降低成本并建设了电网,才真正将电力革命推向千家万户。

陈宁笑言,黄仁勋可能成为AI领域的戴维,因为他定义了训练时代;而推理时代的‘爱迪生们’正在涌现,这也从另一个角度决定了谁才能真正主导一场产业革命。

正是这一转变,打破了英伟达凭借CUDA(英伟达给自家GPU量身打造的专属工具)生态和GPGPU(通用图形处理器)在训练时代建立的垄断格局。

陈宁表示,此前黄仁勋长期坚持“通用计算”理念,认为算法迭代极快,专用推理芯片容易过时,主张通过GPU的通用性来覆盖推理需求。但市场规律证明了推理赛道的不可替代性。谷歌在最新的TPU(张量处理器)战略中明确了“训推分离”的趋势,加码推理专用的算力权重,博通为Meta、OpenAI定制推理芯片,都证明了独立推理赛道的崛起,并展现出巨大潜力。

对于中国而言,这意味着一场难得的“超车”机遇。陈宁坦言,在训练赛道上,由于先进制程受限、CUDA生态壁垒高筑,中国追赶英伟达差距较大,风险也越来越大。但在推理赛道上,全球都刚刚起步,游戏规则不同。“推理更接近应用场景,要为用户提供更高性价比的产品,这正是中国产业所擅长的。”他判断,推理芯片的崛起将是中国科技复兴的巨大机遇。

需把“百万 token”推理综合成本降到“一分钱”级别

面对推理时代的全新需求与挑战,陈宁认为,一味简单模仿英伟达的GPGPU架构并非出路。推理任务的计算范式发生了根本变化,尤其是“Prefill”(预填充)和“Decode”(解码)两个阶段对算力和带宽的需求截然不同,传统架构必然面临瓶颈。

为此,云天励飞提出了新的“GPNPU”架构,旨在融合三大核心能力:首先是顶层结合GPGPU的SIMT编程范式,具有通用灵活的调度架构,这样可以更便利兼容CUDA的生态;其次是结合指令集微架构设计能力,去优化GPGPU里面的矩阵类计算的硬件;与此同时,基于国产工艺和全国产产业链融合一系列先进封装技术,打破内存瓶颈,降低内存成本。

GPNPU的目标是在计算算力、存储带宽、存储容量三者间实现更优配比,满足面向未来推理时代多元化异构推理算力的需求。无论是单位硅芯片面积的计算性能上,还是模型迭代的迁移成本上,包括算子优化提升的硬件利用率,尤其是通过高能效、低功耗等一系列的芯片技术降低运营过程中能源成本,能真正实现全方位降低用户的TCO(总体拥有成本)。

展望未来,陈宁描绘了推理算力需求的爆炸性场景。他以豆包大模型为例,其日均Token(文本处理的最小单元)处理量已达50万亿且增速惊人。

他给出“粗算”的假设,即便以50万亿为基准不再增长,面向大规模在线推理的资本开支与运营开支也会非常可观。

与此同时,有媒体亦报道称字节跳动2026年AI 基建相关资本开支预算约1600亿元,反映出头部厂商对推理基础设施的投入强度正在显著抬升。

陈宁进一步判断,若token规模短期继续上行,明年上半年可能触及100万亿,而在单位能效不发生显著改善的情况下,电力与散热等基础设施压力可能出现“千倍级”的数量级跃迁。

为支撑AI的规模化产业化,他提出需要在较短周期内把“百万 token”的推理综合成本降低到“一分钱”级别。而这需要通过架构革命(如存算一体)和工艺创新才能实现,这也正是中国企业的机会所在。