打开网易新闻 查看精彩图片

当地时间3月24日,Arm CEO Rene Haas在旧金山的年度大会上宣布了一项重构半导体产业链的决定:Arm正式推出首款自研数据中心硅片——Arm AGI CPU。

这意味着,这家成立35年来以提供IP授权与计算子系统(CSS)为核心商业模式的架构巨头,首次将计算平台直接扩展到了实体芯片产品领域。它开始越过传统的芯片设计商,直接向终端云计算大厂交付成品。其战略标靶极其明确:直指2030年规模将突破1万亿美元的数据中心总潜在市场(TAM)

从卖设计图纸到卖物理硅片,这更像一场围绕智能体(Agentic AI)算力成本与生态主导权的底层洗牌。

算力分工重构

要理解科技巨头为何愿意买单,必须厘清CPU与GPU在现代AI数据中心里的真实分工。

进入2026年,AI产业全面迈入智能体常态化推理阶段。当AI系统从单纯的训练转向连续运行、实时交互的智能体时,协调和调度海量Agent的工作让CPU成为了现代基础设施的“起搏器”。正如官方博客中明确的技术站位:AI加速器(GPU)是负责生成Token的高耗能“Token工厂”,而CPU则是负责编排、内存分配、调度加速器以及协调智能体扇出(Fan-out)的“指挥枢纽”。

打开网易新闻 查看精彩图片

为了支撑这种高密度的调度需求,Arm将AGI CPU的物理效能推向了极致。根据官方披露的架构参考设计,在标准的36kW风冷机架中,Arm能够塞入8160个核心;而在与超微(Supermicro)合作的200kW液冷方案中,单机架甚至能容纳超过45000个核心。这种极端的物理密度,使得其每机架性能达到了传统x86系统的两倍以上。

Arm直接向数据中心交付这款专为“智能体云时代”打造的硅基底座,本质上是为耗电巨大的“Token工厂”装配了一个高密度的“节能调度室”,以此截留传统客户在硅片成品环节赚取的庞大硬件溢价。

巨头博弈的暗线

Arm亲自下场,在产业链上撕开了两道极具商业张力的裂缝。

首先是超乎预期的生态结盟与对英伟达的暗中牵制。首批客户不仅包括深度参与联合研发、将其与自家MTIA加速器协同部署的Meta,甚至还拉拢了OpenAI、Cloudflare、Cerebras、SAP等一众软硬件巨头。为了加速生态捆绑,Arm甚至计划将这款服务器的参考设计与固件全面开源给OCP(开放计算项目)。

在大会现场,英伟达CEO黄仁勋录制了祝贺视频。这一“微笑”祝贺背后:Arm推出成品CPU,能加速蚕食Intel和AMD的x86份额。

但长远来看,当Arm联合OpenAI、Meta构建起一套开源的标准服务器生态,并谋求AI基础设施“直销商”地位时,实际上也直接杀入了英伟达在数据中心CPU(如Grace系列)领域的腹地。双方在底层算力控制权上的利益争夺已经暗流涌动。

其次,是来自生态内部的反噬。Arm亲手撕毁35年的“中立”铁律,直接触碰了与现有客户群竞争的商业红线。当高通、联发科等厂商发现“卖图纸的裁判”也下场踢球时,寻找替代方案将从战略储备变为生死抉择。这无疑为开源架构RISC-V提供了一次关键助攻。

面对底层架构被单方面锁死的风险,下游芯片设计企业势必会将海量的资金和研发资源砸向绝对开源的RISC-V生态。Arm的此次战略跨越,客观上正在用自身的生态信誉,为竞争对手的阵营充值。

在软银集团All in AI的资本意志驱动下,Arm打破了旧有的商业舒适区,完成了一次经典的“越顶传球”。

这起事件标志着AI算力战已经从单一的加速器比拼,蔓延到了底层调度架构的全面争夺。对于行业参与者而言,巨头撕扯产生的裂缝正是确定的商业增量。当核心资源向云端算力与RISC-V开源生态倾斜时,围绕高功耗引发的液冷温控需求,以及巨头无暇顾及的边缘侧低成本AI芯片市场,将成为下一阶段资本锚定的利润避风港。(本文首发钛媒体App,作者|硅谷Technews,编辑|郝敬钰)