很多人以为,AI就是GPU。

谁有英伟达H100,谁就厉害。谁有Blackwell,谁就领先。

但现在,事情变了。

英伟达自己的人说了一句很反常的话:CPU正在成为AI Agent工作流的瓶颈。

这句话来自英伟达AI基础设施负责人 Dion Harris。CNBC相关报道摘要显示,他说CPU正在成为扩展AI和Agent工作流时的瓶颈,而且这是一个“令人兴奋的机会”。

你看,这就很有意思。

英伟达是卖GPU的。结果英伟达的人告诉你,现在AI系统里,CPU也开始不够用了。

更巧的是,同一时间,Meta刚和AWS签了一笔多年协议,要大规模使用AWS的Graviton CPU。Reuters报道,这笔交易价值数十亿美元,Meta会使用数千万个Graviton核心。

这不是普通采购。

这是AI算力风向变了。

打开网易新闻 查看精彩图片

GPU像一群特别能算的人。

它适合干大规模并行计算。训练大模型、跑大模型推理,都离不开GPU。

CPU不一样。

CPU更像总调度员。

打开网易新闻 查看精彩图片

以前大家讨论AI训练,所以都盯着GPU。

但AI Agent不是单纯训练模型。

AI Agent是在“做事”。

先理解任务,再调用搜索工具。

拿到结果后,再判断有没有用。

不够,再继续查。

然后整理、比较、写出结论。

中间这些调度动作,很多都不是GPU在干,而是CPU在干。

所以一句话就够了:GPU负责算,CPU负责管。

AI从“回答问题”变成“执行任务”以后,CPU的重要性就上来了。

打开网易新闻 查看精彩图片

这个数字很重要。

它说明你以为AI慢,是模型不够强。

但在Agent场景里,很多时候不是GPU不够强,而是CPU调度、工具调用、数据处理跟不上。

就像餐厅后厨。

厨师再厉害,如果传菜、点单、备料全乱了,客人还是要等。

GPU是厨师。

PU是整个后厨调度系统。

Meta官方说,这次和AWS合作,是为了把数千万个AWS Graviton核心加入Meta的算力组合,用来支持Agentic AI。Meta还特别强调,随着Agentic AI推进,算力需求正在变得更需要CPU。

打开网易新闻 查看精彩图片

AWS自己的说法更直白。

GPU仍然对训练大模型很重要,但Agentic AI带来了大量CPU密集型工作,比如实时推理、代码生成、搜索、多步骤任务编排。

这就是核心。

Meta不是突然不买GPU了。

相反,Meta还在继续大量买GPU算力。CoreWeave官方在4月宣布,和Meta扩大了AI基础设施协议,规模达到210亿美元;Reuters也报道,Nebius和Meta的AI容量协议最高可达270亿美元。

所以Meta的逻辑不是“CPU替代GPU”。

而是:

GPU负责模型,CPU负责Agent。

这两边都要补。

Graviton是AWS自己设计的服务器CPU,基于ARM架构。

打开网易新闻 查看精彩图片

ARM大家并不陌生。手机芯片里经常用ARM路线,比如苹果的很多芯片也是这个方向。

ARM最大的特点之一,是能效高。

在手机里,能效高意味着续航长。

在数据中心里,能效高意味着少交电费、少花散热钱。

AWS官方介绍,Graviton5有192个核心,缓存比上一代大5倍,性能比上一代最高提升25%,核心之间通信延迟最高降低33%。

AWS还说,Graviton实例在相同性能下,能比可比EC2实例最高少用60%的能耗。

这不是小数。

当你只跑几台服务器,省电可能只是账单好看一点。

但当你跑的是数千万个CPU核心,省电就是战略问题。

因为数据中心最贵的东西,不只是芯片。

还有电。

还有散热。

还有机房容量。

Meta这笔交易告诉我们一件事:

未来AI基础设施不是单腿走路。

不是只有GPU。

也不是CPU替代GPU。

而是CPU和GPU重新分工。

GPU负责大模型推理。

CPU负责Agent工作流。

GPU像发动机。

CPU像变速箱和中控系统。

发动机再猛,变速箱跟不上,车也跑不顺。

所以,真正的AI数据中心战争,已经从“谁有更多GPU”,变成了“谁能把CPU、GPU、网络、内存、电力、散热全部组织起来”。

这才是Meta、AWS、英伟达、Intel、Arm都在抢的位置。

过去两年,大家都在问:

你有多少GPU?

接下来,真正懂行的人还会问一句:

你的CPU调度层够不够强?

AI Agent时代来了。

CPU这个老角色,重新回到了牌桌中央。