财报电话会上,苏姿丰突然聊起了2027年以后的事。
当分析师还在追问Zen 5的产能爬坡,她主动抛出了"Venice之后"的规划——Zen 7已经在路上,甚至Zen 8也可能在路线图里。更关键的是,AMD对服务器CPU的战略判断变了:不再是"一款打天下",而是要把产品线拆成针对不同 workload 的专用芯片。
这个转向背后,是云厂商自研芯片逼出来的生存压力,也是AI算力需求分化带来的结构性机会。
从" SKU 丰富"到"架构分层"
AMD现在的EPYC产品线其实已经够复杂了。
Zen 4那一代,第四代EPYC覆盖了AI、云、企业、网络/边缘、小型托管服务商五个场景,SKU数量多到让采购头晕。但到了Zen 5,家族反而收窄了——这不是简化,是AMD在重新思考产品逻辑。
苏姿丰的原话是:"行业需要广泛的CPU组合,不是所有CPU都一样。"
这句话的潜台词是:以前按"通用性能"划分的档位不够用了。云厂商的 head node(头节点)、推理集群的 orchestration(编排)层、低延迟AI任务、GPU-heavy 的训推一体部署——这些场景对核心数、缓存大小、互联带宽的需求差异极大,用同一套硅片硬切,效率损失太大。
所以Zen 6、Zen 7的规划里,AMD要做的是"不同核心/缓存/互联配置"的 workload-specific SKU。不是同一款芯片锁核心卖差价,而是架构层面就分道扬镳。
云厂商自研芯片逼出的防御战
hyperscale 云服务商搞自研芯片,已经不是新闻。
AWS有Graviton,Google有Axion,Microsoft也在推Cobalt。这些基于Arm架构的处理器,核心卖点不是绝对性能,而是"为我的云场景量身定制"——去掉通用CPU里用不到的功能单元,把功耗和面积留给实际 workload 真正需要的部分。
这对AMD和Intel的传统商业模式是釜底抽薪。以前卖的是"通用算力",现在客户要的是"场景最优解"。
AMD的应对策略是反向学习:既然云厂商能用定制芯片切走蛋糕,我能不能把定制能力前置到产品线里?
苏姿丰提到的"与客户的深度合作",大概率就是指这个——在Zen 7/8的定义阶段就嵌入特定云厂商的需求,而不是等流片后再谈定制。这种"半定制"模式,AMD在游戏机芯片上玩了十年,现在搬到数据中心。
AI workload 的三层分化
让AMD下定决心拆产品线的,还有AI算力需求本身的裂变。
苏姿丰在电话会上明确点了三个场景:general purpose operations(通用运算)、head nodes(头节点)、agentic AI tasks(智能体AI任务)。
这三层的需求完全不同。
通用运算要的是性价比和生态兼容,核心数适中、频率够高就行;head nodes 要的是高内存带宽和低延迟,因为得喂饱GPU集群,不能让算力卡等着CPU发指令;agentic AI 则是新兴战场,任务编排、工具调用、上下文管理,对单核性能和缓存层级有奇怪的要求。
以前AMD可能用同一款96核EPYC,通过BIOS配置和定价策略区分这三类客户。但苏姿丰说得很直接:"你需要不同的CPU。"
这意味着Zen 7时代,我们可能会看到:面向GPU集群的" thin head node "芯片(核心少、内存通道多)、面向智能体推理的" fat cache "芯片(L3堆到离谱)、以及继续卷核心数的通用计算芯片。
Venice之后的路线图迷雾
苏姿丰的原话是:"我们现在就在和客户讨论Venice之后的事,以及那些架构里我们要做什么。"
Venice是Zen 6的代号,按AMD两年一代的节奏,2025年发布。她主动提到"Zen 7和可能的Zen 8",说明两件事:
第一,Zen 7的定义工作已经启动,不是概念阶段,是架构决策阶段;第二,AMD在释放信号——我们的路线图比竞争对手看得更远,给客户长期合作的信心。
这种"提前剧透"在半导体行业是战略武器。云厂商做芯片自研决策时,供应商的 roadmap 可信度是核心考量。AMD需要让市场相信:你现在绑定的EPYC生态,未来五年不会断档。
但具体Zen 7会怎么变,原文没有更多细节。只知道方向是"更细分、更定制",至于工艺节点、核心微架构、内存接口规格——全部留白。
CPU在AI时代的角色重估
一个有趣的背景:就在AMD这次财报前,Intel和AMD都报告了CPU需求因"agentic AI"而激增。
这听起来反直觉——不是GPU主导AI吗?但agentic AI的工作流是:大模型做决策,CPU负责调用工具、管理状态、协调多步骤任务。这种"胶水"工作,GPU干不了,得靠CPU。
苏姿丰强调的"不同CPU for agentic AI tasks",正是踩在这个需求拐点上。
AMD的判断是:AI算力不是GPU独舞,CPU要从"通用配角"变成"场景主角"。训练靠GPU,推理和编排可能CPU更优——尤其是当模型小到能塞进CPU缓存,或者任务延迟要求苛刻到不能容忍GPU调度开销时。
这个判断如果成立,服务器CPU的市场空间会被重新定义。不是"GPU吃掉的份额",而是"AI workload 里CPU能切到的新蛋糕"。
产品策略的代价与风险
拆产品线不是免费午餐。
每多一条架构分支,验证成本、软件优化成本、客户支持成本都会指数级上升。AMD以前靠"一款打天下"省下的规模效应,现在要让渡给灵活性。
更隐蔽的风险是:云厂商的自研芯片也在进化。如果AWS Graviton 5能把 head node 场景做到AMD定制芯片的90%性能、50%价格,AMD的"半定制"策略就会两头落空——既没守住通用市场,又没抢到定制溢价。
苏姿丰提到的"与客户深度合作",某种程度上是把双刃剑。绑得太紧,变成某家云厂商的代工厂;绑得太松,定制芯片又缺乏差异化。
AMD需要找到那个微妙的平衡点:足够灵活以应对多样化需求,又足够聚焦以保持架构效率。
行业格局的连锁反应
AMD这一转向,对Intel和Arm阵营都有信号意义。
Intel的至强产品线比AMD更臃肿,Xeon的SKU迷宫一直是客户吐槽重点。如果AMD用"架构分层"替代" SKU 堆砌",Intel跟不跟?跟,意味着承认自己过去的策略失败;不跟,又可能在新一轮 workload 细分中掉队。
对Arm阵营,AMD的定制策略是"以彼之道还施彼身"——你用灵活架构切我市场,我用深度定制反抢高端客户。云厂商自研芯片的优势是"为自己优化",AMD的反击是"为你优化,但比你自研更快上市"。
这场博弈的终局,可能是数据中心CPU市场彻底碎片化:没有统一的"服务器CPU"品类,只有"AWS优化型"、"Azure优化型"、"推理密集型"、"训练头节点型"……
对采购来说,这是噩梦还是福音,取决于AMD能不能把定制成本压到可接受范围。
数据收束
AMD的Zen 7规划,核心就一句话:服务器CPU从"通用商品"变成"场景专用工具"。
这个判断建立在三个事实之上:云厂商自研芯片的渗透率、AI workload 的分化速度、以及agentic AI带来的CPU需求回温。苏姿丰提前两年放出风声,既是给客户吃定心丸,也是向资本市场证明AMD的 roadmap 深度。
但执行层面全是未知数:定制芯片的利润率、软件生态的碎片化风险、与云厂商谈判的筹码平衡。AMD押注的是"比自研快,比通用准"的中间地带——这个地带有没有足够大的市场,2026年Venice发布时会有第一批验证数据。
热门跟贴