你打开一个智能体应用,后台调用的算力配比正在悄然改写——不是GPU吃掉一切,而是CPU要重新站上C位。
一场被低估的财报信号
AMD 2026财年Q1财报会上,苏姿丰用大量篇幅谈论智能体AI(Agentic AI)。这不是例行公事的趋势表态,而是直接关联到AMD最核心的服务器CPU业务——霄龙(EPYC)处理器。
她透露,所有主流云服务商本季度都在扩容EPYC部署,覆盖通用计算、数据处理,以及一个新兴场景:智能体应用。
这个细节容易被忽略。智能体AI通常被等同于GPU密集型任务,但苏姿丰的描述指向另一个方向:编排、数据移动、并行执行,这些环节需要额外的CPU算力,同时CPU还要充当GPU和加速器的"核心节点"。
配比重构:从1:8到1:1
苏姿丰给出了一个关键数字变化。传统数据中心里,CPU与GPU的配比通常是1:4或1:8,CPU主要扮演"主机节点"角色——简单说,就是给GPU打下手。
智能体AI普及后,这个比例正在向1:1演进。在智能体密集部署的场景下,CPU数量甚至可能超过GPU。
这背后的逻辑是工作负载结构的改变。基础模型训练/推理确实吃GPU,但智能体的运行形态不同:它需要持续的环境感知、工具调用、多步骤决策,这些环节产生大量"衍生"CPU任务。
瑞银2025年11月曾预测,服务器CPU总可寻址市场(TAM)到2030年将增长5倍,从300亿美元增至1700亿美元,复合增长率18%。苏姿丰在财报会上将这个预期上调至35%——前提是智能体AI按预期渗透。
GPU的配角,还是新主角?
市场自然会问:CPU需求爆发,会不会蚕食GPU?
苏姿丰的回应很明确:不会。她强调加速器运行基础模型"需要CPU配合",智能体带来的CPU增量"很大程度上是对GPU市场的补充"。
这个判断值得拆解。它不是简单的防御性话术,而是对架构演进的描述:GPU负责并行计算的"重活",CPU承接控制流、数据搬运、任务调度的"杂活"——但"杂活"的量级在智能体场景下被放大了。
换句话说,不是CPU替代GPU,而是两者从"主从关系"转向"协作对等"。
谁的机会,谁的焦虑
对AMD而言,这是双重利好。EPYC在服务器CPU市场份额持续攀升,智能体AI又创造了一个增量叙事——而且是一个能持续数年的结构性趋势。
但对纯GPU叙事的投资者,这可能需要重新校准预期。英伟达的CUDA生态护城河依然深厚,但如果CPU-GPU配比真的向1:1移动,意味着单数据中心的GPU密度天花板被打开的同时,CPU的"存在感"也在回归。
云厂商的 capex 分配、机架设计、散热方案,都可能因此调整。
苏姿丰的35%增长率预期能否兑现,取决于智能体AI的实际落地节奏——而这个节奏,目前连最乐观的行业观察者也不敢打包票。当智能体从演示走向规模化部署,你更看好哪类算力供应商的议价能力?
热门跟贴