文 春公子
4月24日,两则消息把英伟达夹在了同一道夹缝的两侧。
一边是Meta和亚马逊。两者宣布达成一项持续数年、规模可达数十亿美元的合作,Meta将大规模租用亚马逊自研的Graviton5 CPU芯片,初期部署数千万个核心,用于支撑其AI智能体业务。亚马逊副总裁Nafea Bshara透露,协议金额达数十亿美元。
另一边,华为昇腾CANN官方通过直播宣布,DeepSeek V4已在昇腾平台上完成首发。这一动作标志着国产最强模型与国产自主算力的组合已进入实战部署阶段,彻底打破了以往对单一进口硬件的依赖。
同一天,两条新闻。但方向完全相反。一个指向后门,全球最大的AI公司正在自己设计CPU;另一个指向前门,世界顶级大模型绕开英伟达的CUDA生态在国产芯片上完成了首发。这两条新闻之间隔着一个太平洋,但是刀子全捅在了同一个伤口上:英伟达的GPU王国正在被围剿,而且是从多个方向同时合围。
如果只看Meta和亚马逊,可以称之为“客户的背叛”;如果只看华为和DeepSeek,可以称之为“生态的替代”。但若同时把全球科技巨头自研芯片、中国AI产业的生态迁移摆在同一张榜单上,就能看清一个更为深层的格局:这不是某一两笔订单被抢走的暂时挫折,而是一个“万亿级AI算力信仰”正在多个关键层面被瓦解的开始。
01. 最致命的不是对手太强,而是客户正在变成同行
从前只发生在客户和供应商之间的简单买卖关系,在今年春天彻底变味了。Meta、微软、谷歌,这英伟达最大的三个主顾,每一个都在悄悄开启自己的芯片自研副本,而且已经打到了关键关卡。
Meta选择了Amazon Graviton5。这款3nm Arm架构的CPU每颗拥有192核心,缓存规模是上一代的5倍,核心间通信延迟降低最高三分之一。AWS表示,在EC2平台上,Graviton5是同等计算选项中最有性价比的,且能耗比同类产品低约60%。
把时间往前拨三个月,微软用第二代自研AI芯片Maia 200敲山震虎。这款1400亿晶体管的芯片部署在爱荷华州数据中心,并确定下一步将登入凤凰城,和OpenAI的训练集群无缝衔接。微软的设想很直接——在自研的MAI模型和芯片之间建立一个闭环,赋予自己独立研发芯片的权利。
与此同时,谷歌前天在第8代TPU发布会上,对着现场三万人做了最狠的一次双端拆分:TPU 8t负责把前沿模型的开发周期从数月压缩至数周,性能和上一代Ironwood比冲高2.8倍且价格持平;而TPU 8i则在推理端砍掉延迟,性价比一口气拉升80%。
大客户正在变身成独立制造商,这才是最让黄仁勋破防的根本逻辑。曾经的这些大买家,把每一块钱都拆成研发费和采购表两张单子,越长的采购合同意味着越坚决的独立承诺。一旦自研芯片渗透率达到某个临界点,英伟达在过去十五年靠“通用型GPU统领一切”的叙事,就会在这些大客户的账本里被打破。
02. 通用CPU复兴,Agent时代旧武器重夺阵地
过去十年,AI数据中心世界极度迷信一个简单铁律:算力就是GPU越多越猛。但这一信仰正出现前所未有的松动。
摩根士丹利本周发布的AI数据中心产业报告显示,到2030年,全球数据中心CPU市场的总规模将冲至825亿至1100亿美元,其中约325亿至600亿美元纯粹由Agentic AI爆发式增长带动的新增需求。
关键不仅仅在于数据和预期,而是这场转调已经真实发生于产业逻辑的最深处。与过往图形渲染相比,新一代异步多线程的Agent需要持续不断地上千万规模的实时推理、代码生成和高优先级任务调度,其负载特性在数据调度与协同层面早已重新划界——CPU负责内存层次协同、GPU负责矩阵运算密集区的流水并行。
英伟达对这一风向的变化再清楚不过。也因此,上个月GTC 2026大会上,它急急推出与联发科合力打造Arm架构Vera CPU,面向Agent AI时代,预计2028年才能出货。但在此之前,等待它的,是超过两年的空白和无数个来自客户的“我们自己能搞定”。
03. 中国市场的去英伟达化,从破冰加速到雪崩
如果说巨头自研撕开的是全球市场的第一道裂口,那对黄仁勋来说,更大的阴影其实来自东方——中国大型互联网公司正以前所未有的速度批量杀进华为的AI芯片腹地。
伴随着DeepSeek V4发布,华为同步宣布昇腾超节点全系列产品全面支持DeepSeek V4部署。寒武纪、海光等国产AI芯片玩家也火速组团接入,多厂共铺“无英伟达兼容层”。
而在另一头的仓库里,则堆着为绕开美国管制推出的H20“特供芯片”——因为不在中国新基建的采购清单里,正变成无人认领的积压库存。英伟达在中国AI加速卡市场的份额已从制裁前宣称的95%大幅收窄至2025年底的55%,约220万块。按照Bernstein Research早前的预测,到2026年英伟达可能会进一步在这场拉力赛中跌至仅8%的微小残值,而华为将窜升至50%。
这不是一场简单的价格战。这是全球售价最高的AI生态平台,正在迅速丧失它在全球最大AI应用市场中曾经无懈可击的技术垄断地位。
五年前,整个行业判断:只要GPU越堆越多,AI能力就会水涨船高。但如今,这一认知已经在实际落地的巨大代价面前不堪一击。当推理负载和Agent交互构成每天十亿数量级的运行时,过去那套狂砸数百万颗GPU建集中式算力中心的训练图谱,已经无法再靠纯粹堆叠晶体管和单卡性能来对冲成本。
英伟达赖以维持市场垄断的关键策略CUDA软件生态层,这条持续二十年用一套封闭代码拴住无数开发者的终极护城河,如今正被拆成两半进攻。一半来自中国,华为靠着CANN的适配兼容不断拉低迁移门槛,已可以一键迁移绝大多数CUDA代码;另一半则来自硅谷内部,Meta、微软、谷歌直接将核心负载扛向自研架构,不断挑战通用GPU在特定推理场景中的性价比优势。
未来两年,当世界最大的云计算数据集群里同时塞满亚马逊自研的Arm架构CPU、微软的Maia推理专用芯片、谷歌双轨并行的第八代TPU集群和华为在东方独立成立的算力帝国时,人们回望今天的财报曲线和市场份额,会发现其崩塌的开端,正是那个所有人都决定不再把所有鸡蛋放进同一个篮子的春天。黄仁勋怕的不是今天丢了几十亿美元。他怕的是未来十年,英伟达不再是那个唯一值得放进标题的名字。
热门跟贴