财联社1月27日讯(编辑 史正丞)继去年底谷歌、亚马逊先后发布自研算力芯片后,同为全球云计算“三巨头”的微软终于在本周“交卷”——传闻已久的Maia 200芯片正式面世。

微软在公告中表示,这款“为推理而生”的芯片在多项测试中超越亚马逊的第三代Trainium和谷歌第七代TPU。因此,微软将Maia 200公开称为“所有超大规模云服务商中性能最强的自研芯片”。

打开网易新闻 查看精彩图片

(来源:公司官网)

据公司介绍,Maia 200采用台积电3nm工艺制造,内建原生FP8/FP4张量核。每颗芯片包含超过1400亿个晶体管,专为大规模AI工作负载量身打造,特别是采用低精度计算的最新一代AI大模型。

微软披露,单颗Maia 200芯片在4位精度(FP4)可提供超过10 PetaFLOPS的算力,在8位精度(FP8)下也能超过5 PetaFLOPS,而且整个SoC的热设计功耗能够控制在750W以内。科技巨头强调,在实际运行中,单块Maia 200就能轻松运行当今最大的AI模型,同时还为未来更大型的模型留有余量。

除了芯片本身的算力外,微软也在存储参数上猛“堆料”。公司披露,Maia 200配备216GB、带宽达7TB/s的HBM3e,以及272MB的片上SRAM。在拓展层面,每块芯片提供2.8TB/s的双向专用扩展带宽,支持在6144个加速器集群中提供可预测的高性能集合操作。

因此,微软芯片在“跑分”上赢过另外两家竞品也在情理之中。微软在公告中表示,Maia 200的FP4性能是亚马逊第三代Trainium的3倍有余,且在FP8性能上超越谷歌第七代TPU。

打开网易新闻 查看精彩图片

除了性能外,作为云服务商的自研芯片,省钱也是一项关键指标。微软透露,Maia 200是公司迄今部署过的效率最高推理系统,其“每美元性能”相比当前机群中最新一代硬件提升了30%

作为云服务商竞相推出自研芯片的背景,随着AI服务日渐成熟,推理成本已经成为整体运营中日益重要的部分,促使云服务供应商关注如何单独为这块需求提供更具性价比的方案,特别是要比英伟达GPU更具性价比。本质上,微软、谷歌和亚马逊发布的自研芯片,都是在承担原本需要英伟达GPU处理的计算任务,从而降低整体成本。

非常有趣的是,微软似乎不止“优化”了英伟达的芯片。公司披露,每台Maia 200服务器中包含4块芯片,依靠以太网连接,而不是InfiniBand标准。而InfiniBand交换机正是英伟达在2020年收购Mellanox后所销售的产品。

微软透露,目前正在为美国中部地区的数据中心配备最新款芯片,之后会在更多地点部署。目前尚不清楚Azure云服务的用户何时能使用搭载该芯片的服务器。

微软此前也表示,已经在设计该芯片的后续产品Maia 300。科技巨头也与OpenAI达成协议,可以使用初创公司的芯片设计。