5 月 5 日,加州创业公司 Span 和英伟达(Nvidia)公布了一项合作:把一个名叫 XFRA 的白色金属箱挂在美国普通住宅外墙上,紧挨着空调外机和电表。每个箱子里塞着 16 块 Nvidia Blackwell GPU、4 个 AMD EPYC CPU 和 3TB 内存,是企业级 AI 推理服务器的标准配置。
Span 计划把分散在数千户美国家庭外墙的这种盒子连成一张网络,作为“分布式数据中心”卖给云厂商和 AI 公司,提供和传统数据中心一样的算力服务。
Nvidia 这次给 XFRA 配的是首次商用的液冷 RTX PRO 6000 Blackwell Server Edition GPU。液冷意味着无需风扇,挂在房子外面也不会发出嗡嗡声。
这是 Nvidia 首次明确把企业级 GPU 部署到居民住宅。合作方里还有 PulteGroup,美国最大住宅建筑商之一,目前已在多个新建社区试点部署,年内会推一个 100 户规模的概念验证。
“这是一笔基础设施生意。”Span 创始人兼 CEO Arch Rao 对 CNBC 说,“我们的位置很独特,能以低得多的成本满足显然填不满的算力需求,同时让普通业主受益。”
Span 2018 年起家时做的是智能电板,卖给业主帮他们省电费。它的电板能识别每户人家电网接入端的实际可用容量。美国住宅一般标配 200 安培的服务等级,日常负载远低于此。空出来的那部分电力过去没被任何人定价,Span 现在打算把它用来跑 AI 推理。
XFRA 是这个思路的产物:一套由 Span 智能电板、计算节点、备用电池和可选光伏组件组成的封装系统。智能电板实时测算每户的瞬时负载,动态调度计算节点的功率使用,理论上不影响住户用电。云厂商看到的是和普通数据中心没什么两样的接口:把推理任务发过来,由分布在全美各地的 XFRA 节点池协同响应。
这些设施主要部署在住宅而非商业楼。原因是,美国独栋住宅存量超过 8,000 万套,新建住宅普遍标配 200 安培电力服务等级,有独立电表和大量未用满的电网接入容量,这种基数和电力底子是商业地产端找不到的。新建住宅在管线和电力部署上又是从零开始,Span 可以把硬件预装到建筑工序里,等于把分发问题前置到了开发商端。
PulteGroup 战略采购副总裁 Brian Jamison 在合作公告里站台说,“装 SPAN 面板、XFRA 和备用电池能降低建房成本,还能让住宅未充分利用的电力基础设施反过来服务电网。”
这笔生意的商业模式也相当反常规。装 XFRA 的房屋业主在购房时不需要额外付费,硬件由 Span 出,由 PulteGroup 在建造过程中嵌入。装好后业主每月给 Span 付一笔固定费用覆盖电力和家庭 Wi-Fi,作为交换 Span 把 XFRA 节点占用的电力和网络流量按使用量返还给业主。Span 发言人对 Realtor.com 表示,“在某些情况下可能完全没有费用”。
不过细细来看,对于涉及到的四方而言,这的确是一门很合理的生意。业主拿到的是降低后的水电网费,外加一份不需要管理的被动收入流;建筑商拿到了一个营销卖点(“装 Span 的房子能帮你抵消水电费”)以及材料采购上的成本优惠;Span 当中介,向云厂商收算力费、向业主转付分成、自己留一道差价;Nvidia 是 GPU 供应商,把 Blackwell 推到了一个传统超大规模厂商之外的新销售渠道。
对于云客户来说,这也是一笔划算的买卖:在传统数据中心找不到电、找不到地、社区还在反对的时候,从 Span 买分布式算力是一条可绕过现有瓶颈的捷径。
而这条捷径之所以有人买单,是因为 2026 年美国数据中心行业最显著的趋势:电力成了比 GPU 更稀缺的资源。
Sightline Climate 的数据显示,美国 2026 年原计划上线约 12 GW 的数据中心容量,目前真正进入施工阶段的只有 5 GW 左右,剩下三分之二卡在土地、电力或社区审批环节。覆盖 13 个州、服务 6,500 万人的美国最大电网运营商 PJM Interconnection 预测 2027 年其可靠性容量将短缺 6 GW。高压变压器的交付周期从 12-18 个月被拉长到 36-48 个月。
据彭博社报道,OpenAI 和软银的 Stargate 项目至今没有显著的物理建设进展。不是因为没钱,是因为电力、变压器、电网容量这些钱无法立刻解决的事。
Nvidia 全球能源行业高级董事总经理 Marc Spieler 向 CNBC 坦言:要在单一地点搞出大型数据中心需要的负载,已经“很难”。XFRA 选择的反方向是利用每户住宅“已经接入电网但没用满的那部分容量”。美国住宅 200 安培的服务等级,日常实际占用可能只有三分之一到一半。
把每户分散的几千瓦闲置容量乘以数千户,加起来就是一个中型数据中心。Span 自报的数字是装 8,000 个 XFRA 单元相当于一座 100 兆瓦数据中心,部署速度快 6 倍、成本低 5 倍。这些数字目前没有第三方验证,但方向上的吸引力对买电求不得的云厂商来说足够明确。
其实“分布式算力”不是什么新概念。过去几年加密行业孵化出了一整套 DePIN(Decentralized Physical Infrastructure Networks,去中心化物理基础设施网络)方向的项目,包括 Akash Network、io.net、Render Network、Prime Intellect、Gensyn 等。
它们的思路是把世界各地散户和小型机房手里的 GPU 通过代币激励聚拢起来,组成共享算力池。Akash 网络目前管理约 736 块 GPU,io.net 整合数据中心、加密矿工和社区贡献者的多种来源算力,Prime Intellect 早在 2024 年用分布式 GPU 完成了 100 亿参数模型 INTELLECT-1 的训练。
但 DePIN 路线的痛点也非常明显:硬件高度异构(消费级 RTX 3090 到企业级 H100 都有)、可靠性参差、依赖代币经济模型保持流动性、企业级 SLA(服务等级协议)难以承诺。它适合对成本极度敏感、对延迟和稳定性容忍度高的工作负载,比如批处理任务、模型训练、渲染,而不是需要稳定低延迟的实时推理。
Span 加 Nvidia 的方案在几个维度上做了相反的选择:一是硬件标准化,统一是液冷 Blackwell;二是分发渠道机构化,绑定大型住宅建筑商;三是客户对象明确瞄准 hyperscalers 和企业级 AI 云厂商;最好,它也不依赖任何代币激励层。它真正利用的也不是“个人闲置 GPU”,而是“住宅电网接入端的未用满容量”,再加自家硬件去消费这部分容量。
这是过去 DePIN 项目从未真正涉及的资源。Span 的智能电板提供定位和调度这类资源的工具,Nvidia 提供把它转化为 AI 算力的硬件。两边凑在一起,像是给“边缘推理”这个概念配上了第一个标准化的物理形态。
但能不能跑通仍是未知的问题。
和其他分布式算力一样,XFRA 节点之间通过普通住宅宽带互联,要让分散在数千户家庭的算力池稳定支撑企业级 SLA 的推理服务,调度和容错的工程量远超 Span 此前做智能电板的范畴。从单户实测到 100 户概念验证再到 8,000 户的中型数据中心当量,每跨一个数量级,实现难度也会不断上升。
而更根本的问题是这条路的吸引力建立在“传统数据中心找不到电”的前提上。如果电网扩容提速、SMR(小型模块化反应堆)和现有核电重启给集中式方案提供新的电源选项,分布式方案的相对优势会被稀释。Span 押的是电力短缺会持续到 2030 年代。
Marc Spieler 在接受采访时点到了这件事的核心诉求:低延迟、靠近终端用户、能快速规模化。前两点确实是 XFRA 方案的优势,最后一点目前还只是 Span 的承诺。
PulteGroup 计划年内完成的 100 户概念验证,是这套设想能不能从 PPT 走出来的第一个真实测试。在那之前,挂在美国新建住宅外墙上的那些白盒子,对眼下的算力紧缺还帮不上什么忙。
参考资料:
1.https://www.cnbc.com/2026/05/05/nvidia-pulte-span-mini-data-centers-on-homes.html
2.https://www.span.io/blog/span-announces-xfra-a-distributed-data-center-solution-to-close-the-speed-to-power-gap-for-ai-compute-demand
运营/排版:何晨龙
注:封面/首图由 AI 辅助生成
热门跟贴