Google 近期正式启动数据中心 “登月计划”,计划将自身算力全面迁移至太空,该项目被命名为 Project Suncatcher(太阳捕手计划)。

打开网易新闻 查看精彩图片

其核心思路十分明确:与其在地球上争夺日益稀缺的资源,不如直接进军太空获取太阳能。

这项全新计划的唯一目标,是打造一个由太阳能驱动、具备可扩展性的太空 AI 基础设施。

此前,OpenAI CEO 奥特曼与微软 CEO 萨提亚・纳德拉在播客节目中曾表示,当前面临的核心问题并非芯片供应,而是缺乏足够的 “暖壳”(warm shells)来容纳这些芯片。

打开网易新闻 查看精彩图片

这番言论看似 “凡尔赛”,却揭示了 AI 发展的新痛点 —— 在 AI 浪潮初期,人们普遍认为算力是决定一切的关键,但奥特曼在节目中强调,AI 的未来更依赖能源领域的突破,即便订购了大量 AI 芯片,若配套的数据中心与电力供应无法跟上,最终也难以发挥作用。

AI 领域的能耗规模极为惊人。

根据国际能源署(IEA)的预测,到 2030 年,全球数据基础设施的耗电量将与整个日本的全国耗电量相当。除了电力,水资源消耗同样不容小觑。

世界经济论坛的数据显示,一座 1 兆瓦的数据中心,每日耗水量相当于约 1000 名发达国家居民的日用水量总和。

打开网易新闻 查看精彩图片

以英伟达 H100 芯片为例,其最高功耗可达 700W,与家用微波炉功耗相近,而一个数据中心通常会配备数以万计的 H100 显卡,且需 24 小时不间断运行。

近五年间,数据中心的需求呈爆发式增长,但这一增长速度已远超新发电能力的规划进度。

为破解能源难题,Google 推出了独特方案:发射由太阳能驱动、搭载自研 TPU 芯片(功能类似英伟达 GPU,专为计算设计)的卫星星座,在太空中搭建 “轨道 AI 数据中心”。

太空为何能成为数据中心的新选择?

Google 给出了直接且有力的理由。

首先是效率优势,卫星在合适轨道运行时,太阳能板的效率是地球表面的 8 倍;其次是供电稳定性,太空无黑夜与云层遮挡,能实现 7×24 小时不间断供电,这是地面太阳能板无法比拟的;此外,太空数据中心无需占用地球有限的土地资源,也无需消耗大量水资源用于冷却,正如马斯克在社交平台 X 上所言,太空 AI 卫星能实现对地球资源的 “零消耗” 保护。

打开网易新闻 查看精彩图片

目前,地球上的数据中心正逐渐逼近能源瓶颈。

为解决冷却与供电问题,全球大厂各寻出路:冰岛、挪威的数据中心依托低温环境降温,内华达沙漠的数据中心依赖丰富太阳能供电,国内苹果、华为、腾讯、移动等企业则将数据中心布局在贵州、宁夏中卫等地,借助当地自然环境降低能耗。

打开网易新闻 查看精彩图片

但太空环境的复杂性远超地球,Google 在其研究论文中详细罗列了当前需攻克的三大核心难题及应对方案。

第一个难题是太空 “局域网” 搭建。AI 训练需要海量芯片协同工作,对设备间的连接带宽与延迟有着极高要求。地球上可通过光纤实现高速传输,太空环境下则需另寻路径。

Google 的解决方案是 “编队飞行 + 激光通信”:计划让卫星保持极近的距离,仅为公里级甚至更近。

打开网易新闻 查看精彩图片

在包含 81 颗卫星的模拟星座中,每颗卫星都配备了太阳能阵列、辐射冷却系统和高带宽光学通信模块,卫星间距离可在 100-200 米范围内动态调整。依托这一近距离布局,卫星可通过自由空间光通信(FSO ISL)技术实现高速互联,Google 在论文中透露,相关演示已成功达成 1.6 Tbps 的双向传输速率。

第二个难题是宇宙辐射防护。太空环境极端恶劣,太阳在提供能源的同时,会喷射出致命的高能粒子(辐射),这对精密芯片而言是毁灭性打击。

打开网易新闻 查看精彩图片

Google 的应对方式是直接测试芯片抗辐射能力:将自家 Cloud TPU v6e(Trillium)芯片送入实验室,用 67 MeV 的质子束进行轰击测试。

结果显示,该芯片 “具备惊人的抗辐射性”,其中最敏感的高带宽内存(HBM)在承受 2 krad (Si) 辐射剂量后才出现异常,这一数值接近 5 年任务预期辐射剂量(750 rad (Si))的 3 倍。

这意味着 Google 的 TPU 芯片可在低地轨道连续运行 5 年而无永久损伤。Google 计划在 2027 年前与专注于卫星图像和地球数据分析的 Planet 公司合作,发射两颗原型卫星,验证实际运行效果。

打开网易新闻 查看精彩图片

第三个难题是数据回传。尽管太空卫星间的数据传输已实现高速高效,但如何将计算结果快速传回地球,仍是 Google 在论文中承认的未解决重大挑战。

打开网易新闻 查看精彩图片

一方面是延迟问题,Google 选择的 “晨昏同步轨道” 虽能最大化利用太阳能,但会增加对部分地面位置的通信延迟;另一方面是带宽瓶颈,目前 “地 - 空” 光通信的最高纪录是 NASA 在 2023 年创下的 200 Gbps,这一速度对于太空 AI 数据中心的海量数据传输而言,仍显不足。

打开网易新闻 查看精彩图片

在所有技术挑战之上,最核心的制约因素是发射成本。曾几何时,将一公斤物体送入太空的成本远超同等重量的黄金。

打开网易新闻 查看精彩图片

Google 在论文中测算,若 SpaceX 的发射成本能降至 200 美元 / 公斤(预计 2035 年左右实现),太空数据中心的单位功率成本将与地面数据中心持平,约为 810 美元 /kW/ 年,这一数值完全处于美国本土数据中心 570-3000 美元 /kW/ 年的成本区间。

换句话说,当火箭发射成本足够低时,太空将成为比地球更适合建设数据中心的选择。但目前的实际发射价格,仍是这一理想成本的十倍以上。

而能推动这一成本变革的关键企业,正是 SpaceX。

Google 在论文中明确采用了 SpaceX 的成本下降假设:总发射质量每翻倍,单位发射成本下降 20%。

打开网易新闻 查看精彩图片

从 Falcon 1 到 Falcon Heavy,SpaceX 已将发射成本从 30000 美元 / 公斤降至 1800 美元 / 公斤;Starship 的目标则是在 10 倍可重复使用率下,将成本降至 60 美元 / 公斤,极限情况下甚至可低至 15 美元 / 公斤。

打开网易新闻 查看精彩图片

这意味着 SpaceX 很可能成为支撑 Google 太空数据中心经济模型的核心力量 —— 若说英伟达垄断了地球上的 GPU 市场,未来 SpaceX 或许会垄断太空中的 “算力空间”,在地球英伟达卖芯片,在太空 SpaceX 则 “售卖轨道”。

值得关注的是,在 Google 发布论文数日前的 11 月 2 日,英伟达的 H100 GPU 已首次被送入太空。

这颗芯片搭载于 2024 年成立的初创公司 Starcloud 的卫星上,其在轨算力较以往任何太空计算机提升了 100 倍。

Starcloud 诞生之初便以构建太空数据中心为目标,已获得英伟达、YC 等机构投资,其核心业务是实现数据的在轨实时处理。

打开网易新闻 查看精彩图片

Starcloud CEO 举例说明:SAR(雷达成像)卫星产生的原始数据体量庞大,与其下载数百 GB 的原始数据,不如通过在轨 H100 芯片进行分析,仅传回 1KB 大小的核心结果(如 “某位置有一艘船及具体速度”)。

而谈及愿景的实现基础,Starcloud CEO 同样指向马斯克 —— 其计划完全依赖 “SpaceX Starship 带来的成本降低”,此次搭载 H100 芯片的 Starcloud-1 卫星,正是通过 SpaceX 的 Bandwagon 4 Falcon 9 航班成功发射。

打开网易新闻 查看精彩图片

过去五年,英伟达之所以能屡次刷新最高市值纪录,核心在于三点:提供性能最强的算力单元(GPU)、掌控 CUDA 通用计算平台生态形成软件锁定、成为所有 AI 公司(包括 OpenAI、Anthropic、Google)的算力上游。

但在即将到来的太空算力时代,这三大优势的格局可能被重新改写,届时 “算力空间” 将成为新的行业红利。

打开网易新闻 查看精彩图片

AI 的发展极限,或许才刚刚拉开序幕。