「AI正在重塑基础设施的构建和扩展方式」,英特尔CEO陈立武说这话时,手里握着一张谷歌的多年大单。在所有人都在聊GPU和专用AI芯片的当下,这笔交易有点反直觉——CPU厂商凭什么还能拿下超大规模云服务商的订单?
这笔交易到底买了什么
英特尔与谷歌宣布的是一份多年期合作协议。核心内容:谷歌云基础设施将继续以英特尔至强处理器为核心,覆盖多代芯片产品。
具体包括三类工作负载:AI任务、推理任务、通用计算。部署范围是谷歌全球数据中心。
谷歌云现有的C4和N4实例已经采用至强6处理器,这份协议确保这一模式延续。
没有披露财务条款,也没有公布具体年限。但"多年期"和"多代芯片"的表述,意味着这不是一次性采购,而是长期绑定。
陈立武的论点:AI需要"平衡系统"
英特尔CEO陈立武的原话值得逐句拆解。
「扩展AI需要的不仅是加速器——它需要平衡系统。CPU和IPU(基础设施处理单元)对于交付现代AI工作负载所需的性能、效率和灵活性至关重要。」
三个关键词:性能、效率、灵活性。
陈立武没有否认加速器的价值,但把CPU定位为"平衡"的必要组件。这不是防御性话术,而是对当前AI基础设施架构的重新框定。
IPU被单独点名,说明英特尔在推的不只是传统CPU,而是CPU+专用卸载芯片的组合方案。
背景:Arm正在蚕食x86的地盘
这笔交易宣布的时机很关键。
Counterpoint Research近期发布数据:在运行定制芯片的AI服务器中,90%将采用Arm指令集架构。x86在新部署中的份额被压缩到很小。
hyperscaler(超大规模云服务商)加速采用定制Arm处理器用于AI任务,已是行业公开趋势。亚马逊Graviton、谷歌Axion、微软Cobalt,都在走这条路。
英特尔此时拿下谷歌的多年大单,相当于在退潮中守住了一个关键滩头。
谷歌不是没有自研芯片。Axion处理器2024年已发布,基于Arm架构,面向云工作负载。但这份协议说明,谷歌云的底层基础设施并未"去英特尔化"。
为什么谷歌还需要至强
从谷歌云现有产品矩阵反推需求。
C4实例:计算优化型,至强6处理器。N4实例:通用型,同样基于至强6。这两类产品覆盖的是谷歌云最基础、最大量的计算需求。
AI训练和推理的"热"负载可能流向GPU或TPU,但云服务的"冷"负载——通用计算、遗留系统、不需要极致并行化的任务——仍需CPU。
更关键的是推理环节。大模型推理的batch size(批处理大小)和延迟要求差异极大,不是所有场景都值得启动GPU。CPU推理在成本模型上有其不可替代性。
陈立武提到的"灵活性"大概指向这个:同一套硬件基础设施需要适配多样化的AI落地场景,而非所有任务都硬塞进专用加速器。
英特尔的产品节奏
协议覆盖"多代"至强芯片,意味着谷歌已经看到英特尔未来3-5年的路线图。
至强6是目前交付的产品,采用Intel 3制程。下一代Clearwater Forest已官宣,基于18A制程(1.8纳米级),面向边缘AI和早期6G基础设施。
18A是英特尔代工服务(Intel Foundry)的关键节点,被公司视为"制程回归领先"的证明。谷歌作为18A的早期大客户,实际上也在为英特尔的代工业务背书。
这份协议因此有双重意义:芯片销售+制程验证。
行业信号:CPU没有出局,但角色在变
这笔交易最值得关注的信息密度在于:它修正了"AI=GPU"的单一叙事。
超大规模云服务商的基础设施决策是行业风向标。谷歌选择继续大规模采购至强,说明:
第一,AI基础设施的构建逻辑不是"替代"而是"叠加"。加速器处理并行计算密集型任务,CPU处理控制逻辑、数据预处理、轻量推理和通用负载。
第二,"平衡系统"成为新的采购标准。单一指标(算力峰值)让位于综合指标(性能/功耗/成本/灵活性)。
第三,x86生态的软件和工具链积累仍是护城河。迁移成本、兼容性、开发者生态,这些因素在超大规模部署中被放大。
陈立武的表态可以读作英特尔的新定位宣言:不做AI时代的旁观者,而是作为"平衡系统"的架构师重新入场。
未回答的问题
协议没有披露的细节同样重要。
谷歌云的自研Arm芯片Axion与至强6的 workload 分配比例如何?协议是否包含价格调整机制,以应对Arm芯片的成本压力?英特尔18A制程的良率和产能能否支撑承诺的交付节奏?
这些问题将决定这份"多年大单"的实际含金量。但无论如何,在Counterpoint Research给出90% Arm占比的预测背景下,英特尔能拿下谷歌的公开承诺,本身就是一次有效的市场信号释放。
CPU在AI基础设施中的角色,不是被消灭,而是被重新定义。从"唯一算力中心"退居"平衡系统的协调者",这个身份转换能否让英特尔守住市场份额,取决于它能否把"灵活性"这个词翻译成客户可感知的TCO(总拥有成本)优势。
谷歌的订单是一个开始,不是答案。
热门跟贴