打开网易新闻 查看精彩图片

芯片行业的"包租公"Arm,干了36年只收租不卖货,现在突然宣布要自己造芯片了。

这家英国公司在最近的活动上推出了Arm AGI CPU——一款面向AI数据中心推理场景、可以直接量产的处理器。芯片基于自研的Neoverse系列内核,Meta参与了联合开发,同时也是首位客户。

OpenAI、Cerebras、Cloudflare等公司也在首批合作名单里。市场对此早有风声:Arm从2023年就开始闷声研发,现在终于开放订购。

但这事儿的意义比"预料之中"要大得多。Arm打破了36年来只授权、不自产的铁律,未来要和曾经授权的客户们同台竞技了。

有意思的是,Arm选的是CPU,而非风头正劲的GPU。

AI系统正在变成7×24小时运转的全球基础设施。过去,人类是瓶颈——你点鼠标的速度决定了系统跑多快。到了代理式AI时代,软件智能体能自己协调任务、调用多个模型、实时做决策,这个限制消失了。

代价是CPU的压力陡增。它要管理数千个分布式任务:协调加速器、调度内存、迁移数据,现在还要同时指挥海量AI智能体。换句话说,CPU成了整个数据中心的"节拍器"。

Arm Neoverse其实已经悄悄支撑起一堆大厂的自研芯片:Amazon Graviton、Google Axion、微软Azure Cobalt、NVIDIA Vera……生态伙伴想要更多,Arm就亲自下场做了AGI CPU。

具体配置相当激进:1OU双节点设计,每节点两颗芯片,272核心;30台刀片塞满一个36kW风冷机架,就是8160核心。如果上液冷,200kW机架能塞336颗芯片、45000+核心。

Arm给出的对比很直接:同机架性能达到最新x86系统的两倍以上。理由有三——内存带宽领先,x86高负载下会抢资源掉性能;单核性能更强;线程多+单核强,叠加起来差距就拉开了。

Meta用这款CPU搭配自家的MTIA加速器,要优化吉瓦级基础设施。Cerebras、Cloudflare、OpenAI、SAP等也在部署名单里。永擎、联想、Supermicro的系统已经能下单。

Arm还做了个参考服务器设计,打算开源给社区——包括固件、调试工具、验证框架全套。

GPU负责训练和推理,CPU负责让一切有序运转。Arm给它的定位是"现代基础设施的节奏核心"。

时机也微妙。今年3月,英特尔和AMD都通知中国客户CPU交付延期,短缺已经开始推高价格。Arm此时亲自下场,像是在说:这摊水,我也来搅一搅。