打开网易新闻 查看精彩图片

Arm干了36年的"卖图纸"生意,现在决定亲自下场当包工头。

这家英国公司最近正式发布Arm AGI CPU——一款面向AI数据中心、可直接量产的处理器。有趣的是,它的首位客户兼联合开发伙伴是Meta,专为配合Meta自研的AI加速器而生。OpenAI、Cerebras、Cloudflare等也在首发合作名单里。

市场对此早有风声。2023年Arm就已启动芯片研发,如今正式开放订购。但对这家软银控股的公司而言,这意味着历史性转身:从只卖设计授权,到与曾经的客户同台竞技。

更值得玩味的是,Arm选择做CPU而非GPU。

AI系统正在变成24小时运转的全球设施。过去,人类是瓶颈——我们打字、点击的速度决定了机器能多快响应。但"代理式AI"时代,软件智能体自己就能调度任务、调用模型、实时决策,人反而成了旁观者。

这让CPU的角色彻底变了。它不再只是"配套零件",而是成了数据中心的"指挥中枢":协调数千个分布式任务,管理内存存储,调度工作负载,迁移数据,还要同时指挥海量AI智能体协同作战。

Arm Neoverse架构早已渗透进各大云厂商的底层——Amazon Graviton、Google Axion、Microsoft Cobalt、NVIDIA Vera都在用。但合作伙伴想要更多,Arm便拿出了自己的答案。

Arm AGI CPU的设计目标很直白:在数千核心并行的极限压力下,每个任务都能稳定高性能输出,同时压得住功耗和散热。

具体配置堪称密集。参考服务器采用1OU双节点,每节点两颗CPU,272核心起步;标准36kW风冷机架塞满30台,能堆出8160核心。若上液冷——Arm与Supermicro合作了200kW方案——单架可容纳336颗CPU,核心数突破45000。

Arm给出的对比数据很锋利:同机架性能可达最新x86系统的两倍以上。底气来自三个设计取舍——

内存带宽拉满,让单架能支撑的并发线程数远超对手;x86那边,核心多了会互相抢资源,性能反而坍缩。

单线程性能过硬。Neoverse V3核心能效比出众,一个线程能干更多活。

两者叠加:线程又多、每个又能打,最终性能差距被放大。

Meta的参与颇具代表性。这家社交巨头要优化的是"吉瓦级"基础设施,Arm AGI CPU需与其MTIA加速器无缝配合。其他首批伙伴也各有算盘:Cerebras、Rebellions做AI芯片,Cloudflare、F5搞网络,SAP服务企业市场,SK电讯布局电信——都在押注CPU作为AI基础设施的新支点。

永擎、联想、Supermicro已开放商用系统订购。Arm还打算把参考服务器的设计方案、固件、调试工具全部开源贡献,降低行业采用门槛。

GPU抢走了AI时代的大部分聚光灯,但CPU正在数据中心里悄悄重建自己的领地。Arm的赌注是:当AI智能体开始自主协作、永不停机,谁来当那个"确保一切不乱套"的管家?

答案或许就藏在一个细节里——Meta已经开始用这批芯片,搭建自己的下一代基础设施了。