2015年,微软把一艘集装箱大小的服务器沉进苏格兰海底,想用免费海水冷却省掉数据中心最烧钱的环节。十年后,这个项目无声消失,而马斯克正计划把100万个数据中心发射到太空——两个看似科幻的场景,共享同一个致命缺陷。
海底实验的沉没,不是因为技术
微软给这个项目取名Natick,设计得像半挂车的油箱,锚定在海底靠风能和海水自给自足。冷却成本归零,能源近乎免费,听起来是数据中心的理想形态。
但路透社从知情人士处获悉,Natick最终被"需求不足和经济不可行"拖垮。客户宁愿选择地面设施,因为上线更快,还能随时升级硬件——在AI芯片半年迭代的今天,这点比省电更重要。
行业研究机构AvidThink创始人Roy Chua对路透社直言:"这些问题在太空会比海底严重得多。"
太空数据中心的"终身监禁"困境
马斯克计划的轨道数据中心,核心矛盾与Natick如出一辙:模块化部署昂贵,一旦上天就无法维修或升级。
SpaceX渲染图显示,单个卫星体积将超过国际空间站。按马斯克设想,这类设施要部署100万个。Ars Technica主编Eric Berger估算,仅发射成本至少1万亿美元;Moffett Nathanson分析师的笔记更悲观,用的是"数万亿"复数。
但钱还不是最棘手的。假设SpaceX通过即将进行的IPO筹到资金,发射频率本身就会成为瓶颈——现有火箭产能根本无法支撑百万级发射需求。
硬件锁死的代际风险
更隐蔽的威胁来自AI技术路线的摇摆。轨道数据中心一旦就位,硬件配置即冻结。若下一代AI架构转向非大语言模型路线——业内已有不少声音认为LLM(大语言模型)是条死胡同——马斯克的卫星群可能在发射当天就已过时。
这种"锁死终身"的特性,恰恰是Natick客户最忌惮的。海底服务器至少还能打捞,太空设施连这个选项都没有。
规模悖论:越大越脆弱
马斯克设想的卫星尺寸引发专家普遍质疑。国际空间站耗资1500亿美元、动用多国航天机构才建成维护,单个商业卫星要超越这个体量,工程复杂度呈指数级上升。
冷却方案同样存疑。太空没有海水,只能靠辐射散热,效率远低于对流。微软在海底免费获得的东西,马斯克要在真空中用额外能耗换取。
地面数据中心正在用液冷和可再生能源快速迭代,太空方案的时间窗口正在收窄。
Natick的教训被总结得足够简单:客户要的是灵活,不是一次性科幻装置。这个需求在AI算力军备竞赛中只会更强烈——没人愿意把未来押在无法更换的硬件上。
SpaceX尚未公布轨道数据中心的具体技术路线图,但历史已经提供了一份昂贵的对照样本。当100万个"锁死终身"的卫星群面临技术路线切换时,今天的万亿投资会变成什么?
热门跟贴