打开网易新闻 查看精彩图片

模块化基础设施公司Moonshot Energy、QumulusAI以及Connect Nation Internet Exchange Points(IXP.us)共同宣布,计划在美国25个地点设计和部署QAI Moon Pods,并最终扩展至125个城市。

这一合作将三家公司的运营商中立互联、模块化AI基础设施以及GPU即服务技术相结合,创建可扩展的国家级推理和AI工作负载基础设施,从而降低延迟并将AI计算能力扩展至传统超大规模数据中心无法覆盖的区域。

首次部署将于2026年7月在堪萨斯州威奇托州立大学校园开始,随后预计将扩展至其他25个城市。这些公司已经在美国大学研究校园和市政区域识别出多达125个潜在部署地点。

IXP.us联合首席执行官Hunter Newby向Data Center Knowledge表示:"我们正在建设互联网交换点和AI模型——这不是数据中心项目,我们不是在建设兆瓦或千兆瓦级别的设施。"他补充说,AI Pod的建设周期为几个月,而非数年。

模块化方案

这些2000千瓦的模块化单元由Moonshot设计和建造,GPU基础设施则由QumulusAI负责。这些公司表示,AI Pod将在边缘提供低延迟AI计算,而无需依附于大型超大规模数据中心的限制。

Moonshot首席执行官Ethan Ellenberg在声明中说:"这一合作伙伴关系代表了电力、计算和互联在AI需求转移的精确点上的物理融合。"

HyperFrame Research首席执行官兼分析师Steven Dickens告诉Data Center Knowledge,这一合作解决了服务不足地区的需求。

他说:"这是将推理带到边缘和更近的地方。我们正在建设这些巨大的训练数据中心,它们对于训练用途来说非常出色。但在接下来的几年里,我们可能会看到部署到推理的GPU数量是训练GPU的10倍。这将应用于计算机视觉、智能零售、智能制造和医疗保健。对于所有这些用例,你需要以良好的往返延迟访问GPU。"

他补充说:"有大量不同的行业将需要AI,而且他们需要本地化的AI。"

推理市场布局

这些公司发现了一个机会,即满足那些无法获得昂贵数据中心GPU算力地区的推理需求。

QumulusAI首席执行官Mike Maniscalo表示:"所有工作负载都越来越受推理驱动、对延迟敏感且分布式,但基础设施还没有跟上步伐。这一合作伙伴关系让我们能够将GPU计算直接放置在网络边缘,即数据流动和决策发生的地方……我们正在建设一个国家级平台,使高性能AI计算在超大规模数据中心之外变得实用、可扩展且经济可行。"

Q&A

Q1:QAI Moon Pods是什么?有什么特点?

A:QAI Moon Pods是由Moonshot Energy、QumulusAI和IXP.us三家公司合作开发的模块化AI基础设施。它采用2000千瓦的模块化设计,能够在边缘提供低延迟AI计算服务,建设周期仅需几个月而非数年。

Q2:这个项目计划在哪些地方部署?规模如何?

A:项目计划首先在美国25个地点部署,最终扩展至125个城市。首次部署将于2026年7月在堪萨斯州威奇托州立大学校园开始,部署地点主要选择在美国大学研究校园和市政区域。

Q3:为什么要在中小城市部署AI Pod而不是大型数据中心?

A:因为推理工作负载越来越需要低延迟和分布式部署,而传统超大规模数据中心无法覆盖所有地区。AI Pod可以将GPU计算直接放在网络边缘,满足计算机视觉、智能零售、智能制造和医疗保健等行业的本地化AI需求。