打开网易新闻 查看精彩图片

AI训练一个模型消耗的电量,足够让一个小城市亮上几天。这不是比喻,是账面上的数字。

当所有人盯着英伟达(Nvidia,美国芯片公司)的GPU算力时,真正的瓶颈已经悄悄转移——电网撑不住了。美国新建数据中心的审批越来越严,社区抗议此起彼伏,冷却系统的电费账单高到能吓退CFO。Euwyn Poon(Orbital公司创始人)算过一笔账:地面数据中心的能源天花板,正在以肉眼可见的速度逼近。

他的解法是把整个数据中心塞进火箭,送到200公里以上的近地轨道。

「地面每建1吉瓦数据中心,难度都在指数级上升」

「地面每建1吉瓦数据中心,难度都在指数级上升」

Poon在硅谷创业圈不算陌生人。法律背景出身,连续创业者,上一段经历是房地产科技领域。2024年,他带着Orbital拿到a16z Speedrun(知名风投机构Andreessen Horowitz的加速器项目)的投资,开始招兵买马。

公司现在的核心命题听起来像科幻:用太阳能供电,用太空真空散热,在卫星上跑AI推理任务。

「地面数据中心的痛点太集中了。」Poon向我列举:选址受限于电网容量,冷却系统吃掉15%-40%的额外能耗,昼夜交替和天气波动让可再生能源的稳定性始终打折扣。而轨道上的太阳能阵列没有这些问题——没有云层遮挡,没有日落,没有季节性衰减。

更关键的是散热。太空是天然的散热场。数据中心的GPU集群产生的热量,在地面需要复杂的液冷系统和冷却塔来处理,在轨道上可以直接辐射到近乎绝对零度的背景空间里。Poon的团队测算过,这种「被动散热」的效率远超任何地面方案。

能源和散热,恰好是地面数据中心成本结构里最沉重的两块石头。

Orbital的第一颗卫星Orbital-1已经排上日程:2027年4月,SpaceX(美国太空运输公司)的猎鹰9号火箭发射。卫星将搭载英伟达的GPU硬件,任务清单包括三项——验证持续计算能力、测试太空辐射环境下的硬件稳定性、以及开始运行实际的AI推理工作负载。

为什么选「推理」而不是「训练」

为什么选「推理」而不是「训练」

这里有个关键的技术取舍。Poon的团队本可以追求更性感的「太空训练集群」,但最终选择了推理任务作为突破口。

区别在于架构耦合度。训练大型AI模型需要成百上千块GPU紧密协作,数据在芯片之间高频流动,延迟抖动超过毫秒级就会导致整个集群效率崩塌。这种「紧耦合」特性,让训练任务对网络拓扑和同步精度极度敏感。

推理则完全不同。一个训练好的模型被部署后,处理的是大量独立的用户请求。这些请求之间没有依赖关系,可以被打包发送到任意可用的计算节点上执行。Poon把这种特性称为「天然适合分布式架构」。

换句话说,一百颗卫星各自独立运行推理任务,和一百颗卫星协同完成一次训练, engineering难度差着数量级。

「我们不需要在轨道上搭建高速互联网络。」Poon解释,「每颗卫星就是一个完整的推理节点,地面站把请求分发上去,等结果传回来就行。」

这种设计降低了首批任务的技术风险,也让星座扩展变得更灵活。卫星可以分批发射,单点故障不会拖垮整个系统,硬件迭代也不需要一次性替换整个集群。

2027年4月的那个发射窗口

2027年4月的那个发射窗口

Orbital-1的具体配置尚未完全公开,但Poon确认了几个关键参数:近地轨道,高度约550公里;太阳能供电系统的设计目标是在轨道日照期实现能源自给;散热系统采用辐射板直接向太空排热。

辐射是另一个需要验证的变量。近地轨道穿过地球辐射带的边缘,高能粒子对电子元件的轰击会造成「单粒子翻转」——简单说就是比特跳变,计算错误。Poon的团队在地面做了大量辐射模拟测试,但真实的太空环境总有意外。

「Orbital-1的首要目标是证明GPU能在轨道上持续稳定运行。」Poon说,「不是跑几分钟,是跑几周、几个月。」

如果验证成功,后续星座的部署节奏会加快。Poon没有给出具体数字,但提到「规模化」是写在商业计划书里的关键词。一颗卫星的算力有限,但成百上千颗组成的星座,理论上可以承接相当规模的推理需求。

谁会为「太空算力」买单

谁会为「太空算力」买单

成本结构是绕不开的问题。火箭发射费用、卫星制造成本、地面站运维——这些加起来,Orbital的算力单价能打得过地面的AWS(亚马逊云服务)或Azure(微软云服务)吗?

Poon的回应分两层。首先,能源和散热的零边际成本是长期优势。地面数据中心的电费账单随电价波动,轨道上的太阳能一旦摊平前期投入,后续运行几乎「免费」。其次,某些特定场景可能愿意为「太空算力」支付溢价——比如对延迟不敏感、但对数据主权或物理隔离有极端要求的客户。

「不是所有工作负载都适合上天。」Poon很坦诚,「但总有一些,地面越来越贵,太空越来越便宜。」

他举了一个例子:某些国家的AI监管要求数据不能离境,但本地电网又支撑不了大规模算力中心。传统解法是建电厂、拉专线,周期长、阻力大。Orbital理论上可以提供「主权算力」——卫星过境时接入,数据在太空处理,结果传回地面,物理上从未离开该国领土上空。

这个场景 niche(小众),但真实存在。

另一个潜在市场是「边缘推理」的极端版本。自动驾驶、工业物联网等场景对延迟极度敏感,通常需要把算力下沉到基站或终端。但某些偏远地区——远洋船舶、极地科考站、沙漠油田——地面基础设施覆盖不到。卫星星座可以提供「无处不在」的推理能力,虽然延迟比光纤高,但比「完全没有」好得多。

竞争对手不只是其他太空公司

竞争对手不只是其他太空公司

Orbital不是唯一盯上太空算力的玩家。欧洲有公司研究在月球轨道部署数据中心,利用极地陨石坑的永久阴影区散热;亚马逊的Kuiper(柯伊伯计划,卫星互联网项目)和SpaceX的Starlink(星链,卫星互联网项目)虽然主打通信,但卫星平台的计算能力也在持续升级。

Poon认为真正的竞争不在太空,而在地面。「如果特斯拉(Tesla,美国电动车公司)的储能技术让数据中心实现100%可再生能源,或者核聚变发电突然突破,我们的窗口期会急剧收窄。」

反过来,如果地面电网的紧张持续恶化,Orbital的时间压力会减轻。Poon提到一个数据点:美国未来五年规划的新增数据中心电力需求,已经超过现有可再生能源装机量的总和。这意味着要么烧更多化石燃料,要么接受建设速度放缓。

「AI公司不会停下来等电网。」Poon说,「他们会在能通电的地方继续建,直到无处可建。」

Orbital赌的是那个「无处可建」的时刻。

技术债务与工程乐观主义

技术债务与工程乐观主义

采访结束前,我问Poon最担心什么。他没有提技术风险——辐射、散热、发射失败——这些都在预案里。他担心的是「工程乐观主义」本身。

「太空创业有个经典陷阱:把地面验证过的技术直接搬上去,发现环境差异比预期大十倍。」Poon说,「我们花了大量时间在地面模拟轨道条件,但模拟终究是模拟。」

Orbital-1的任务设计因此格外保守。不追求算力密度最大化,先求稳;不急于开放商业服务,先把基础数据跑完。Poon把这种策略称为「用时间换确定性」。

2027年4月的发射窗口现在看起来还很远,但在航天工程的时间尺度上,两年半只是勉强够用的缓冲。卫星的详细设计、与SpaceX的接口协调、地面站网络的部署——这些并行推进的工作流,任何一环延误都会挤压测试时间。

Poon的日程表已经排到发射后六个月。如果Orbital-1的GPU在轨道上稳定运行超过90天,公司会立即启动下一轮融资,用于星座规模的初步验证。如果早期数据不理想,调整方向的空间会很有限。

「要么证明这条路走得通,要么证明我们想得太多。」Poon的总结带着产品经理式的冷静,「太空不会给你第二次机会修bug。」

当Orbital-1最终升空时,它携带的不只是几块GPU和一堆传感器。它测试的是一种可能性:当地面的物理约束越来越紧,向外拓展是否是可行的出路。答案会在2027年秋天开始传回——如果一切顺利的话。

如果轨道上的AI数据中心真的跑通了,第一个大规模应用场景会是什么?气象预测、药物筛选、还是某种我们还没想到的边缘需求?