人类重返月球,但飞船上多了一张没人预料到的"船票"。

2025年11月,NASA的阿尔忒弥斯二号任务将把四名宇航员送入绕月轨道。这是阿波罗时代以来美国首次载人深空飞行。但真正的悬念在于:飞船上将搭载一套人工智能系统,它将在38万公里外的真空中,首次尝试自主决策。

打开网易新闻 查看精彩图片

这不是科幻小说的设定。NASA与欧洲航天局(欧空局)已经确认,名为"西蒙"(Simon)的AI助手将随船出征。一个被设计用来对话的算法,要在没有地面实时支持的条件下,处理人类可能无暇顾及的危机。

为什么偏偏是这次任务?AI在太空里能做什么,又不能做什么?

西蒙是谁:从实验室到发射台

西蒙的全称是"航天器交互式移动伴侣"(Spacecraft Interactive Mobile Companion),由欧空局与IBM、德国航空航天中心(DLR)联合开发。它的核心是一套基于沃森(Watson)技术的自然语言处理系统,但经过了针对太空环境的深度改造。

2018年,西蒙首次在国际空间站完成测试。当时它的任务相对简单:协助宇航员完成日常实验流程,通过语音交互减少他们查阅手册的时间。宇航员可以问"下一步该加多少试剂",西蒙会从实验协议中调取答案。

但国际空间站与地球的平均距离只有400公里。地面控制中心能在毫秒级延迟内介入任何异常。阿尔忒弥斯二号完全不同——飞船绕月期间,地球指令需要1.3秒才能到达,紧急情况下的"人等指令"模式可能致命。

西蒙的升级版本被赋予了新的设计目标:在通信中断或地面无法及时响应时,自主识别飞船系统异常,并向宇航员提供处置建议。这不是替代人类决策,而是在关键窗口期压缩反应时间。

欧空局载人航天主管托马斯·佩斯奎特(Thomas Pesquet)在2024年的技术简报中描述了这个场景:「当宇航员专注于手动控制飞船姿态时,如果生命支持系统出现压力波动,西蒙需要第一时间标记风险,并列出优先级排序的应对选项。」

这个描述揭示了一个微妙的设计哲学。西蒙不是自动驾驶仪——阿尔忒弥斯二号的飞船仍由人类全程操控——而是一个永不疲倦的"第三只眼",专门捕捉人类注意力盲区里的危险信号。

为什么现在:深空通信的致命瓶颈

阿尔忒弥斯二号选择搭载AI,直接源于一个被长期回避的技术现实:月球距离已经逼近地面控制的极限。

阿波罗时代解决这个问题的方式极其昂贵:NASA动用了超过30万人的支持团队,在任务控制中心实行三班倒实时监控。每一个遥测数据点都有专人盯着,任何异常都能在数秒内触发全球专家会诊。

这种模式在阿波罗11号登月时达到顶峰。当阿姆斯特朗手动操控鹰号着陆器避开陨石坑时,地面团队只能被动收听延迟的语音描述,无法提供实时辅助。那次着陆燃料剩余量最终降至25秒——这个后来广为人知的数字,暴露了人类深空探索的脆弱性。

五十年后,NASA的预算结构已经完全不同。阿尔忒弥斯计划虽然总投入超过930亿美元,但人力成本被严格压缩。任务控制中心的人员配置相比阿波罗时代减少了近80%,而监控的传感器数量却增加了两个数量级。

这个矛盾无法通过增加人手解决。深空网络的三个主要地面站(加利福尼亚、马德里、堪培拉)需要同时支持数十个在轨任务,带宽和天线时间都是稀缺资源。阿尔忒弥斯二号绕月期间,每天只有约4小时能与地面进行高速数据传输。

西蒙的部署本质上是一个资源替代方案:用 onboard 计算能力(星载计算能力)填补通信盲区,用算法响应速度弥补人力缺口。

但这里有一个反直觉的设计选择。NASA并没有选择最先进的神经网络架构,而是坚持沿用基于规则的专家系统与机器学习混合方案。西蒙的决策树经过数千次地面模拟训练,但它的核心逻辑保持透明——宇航员可以追问"为什么建议关闭阀门A",系统必须能给出可追溯的推理链条。

这种"可解释性优先"的保守策略,与商业AI领域的大模型竞赛形成鲜明对比。OpenAI的GPT-4、谷歌的Gemini都在追求涌现能力和通用性,而太空AI的首要指标是"在极端压力下不出错"。

欧空局技术官员在2024年6月的采访中解释了这种权衡:「我们不能接受一个'感觉应该这样做'的系统。在真空环境中,每一个建议都必须对应明确的工程参数阈值。」

AI在太空能做什么:任务清单与能力边界

西蒙的具体职责被限定在三个领域,这个清单本身说明了当前太空AI的真实能力边界。

第一,环境控制系统监控。飞船的生命维持涉及温度、湿度、二氧化碳浓度、氧气压力等12个关键参数。西蒙需要实时比对传感器读数与标准曲线,识别偏离趋势而非仅报警瞬时值。例如,氧气压力的缓慢下降可能比突然暴跌更危险——后者往往触发明显的泄漏警报,前者可能预示过滤系统效率衰减,需要提前数小时预警才能安排检修。

第二,电力分配优化。阿尔忒弥斯二号的猎户座飞船采用太阳能电池阵列,绕月期间会经历周期性的地球阴影区。西蒙需要根据轨道预测、任务优先级和电池健康状态,动态建议各系统的开关机时序。这本质上是一个约束满足问题,但变量包括不可预测的宇航员临时需求。

第三,通信窗口管理。深空网络的带宽有限,西蒙需要预判哪些数据包必须实时下传、哪些可以本地存储等待下一窗口。这个决策涉及对数据价值的实时评估——实验失败的早期迹象可能比成功的完整记录更紧迫。

这三项任务的共同特征是:输入数据结构化、决策标准可量化、错误后果可承受。西蒙不会被允许触碰推进系统、导航控制或再入程序——这些领域的人类否决权是硬编码的。

这个能力边界反映了太空工程的一个深层原则:新技术的引入必须服从"失效安全"(fail-safe)设计。AI可以建议,但不能执行;可以预警,但不能中断。任何自动化层级都必须保留物理层面的人类覆盖机制。

但这种设计也引发了关于"有效载荷"的质疑。西蒙的系统质量约为15公斤,功耗峰值80瓦,在每公斤发射成本超过10万美元的深空任务中,这不是可以忽略的数字。如果它的功能仅限于"高级报警器",是否值得占用本可用于科学仪器的资源?

NASA的回应指向了更长远的规划。阿尔忒弥斯二号被明确定义为"验证飞行",其核心目标不是科学发现,而是测试载人深空系统的可靠性。西蒙的部署是为了获取AI-human协作的真实数据,为2026年的阿尔忒弥斯三号载人登月做准备。

那个后续任务将涉及月面活动——宇航员离开飞船,进入完全无法实时通信的环境。届时,类似西蒙的系统可能需要承担更复杂的角色:管理月面栖息地、协调科学设备、甚至在紧急情况下引导宇航员返回着陆器。

商业航天的隐形推手

西蒙登上阿尔忒弥斯二号,还有一个容易被忽视的驱动力:商业航天公司的竞争压力。

SpaceX的星舰系统正在快速迭代,其长期目标包括载人火星任务。马斯克多次公开表示,火星通信延迟(单程4至24分钟)使得地面控制模式完全不可行,"任何可持续的火星定居点都需要高度自治的系统"。

这种公开表态构成了对NASA的隐性挑战。如果传统航天机构不能在月球距离验证AI autonomy(自主能力),火星竞赛的话语权可能进一步向商业公司倾斜。

更直接的竞争来自蓝色起源(Blue Origin)。贝索斯的公司正在开发"蓝月"着陆器,计划作为阿尔忒弥斯计划的商业供应商。2024年初,蓝色起源披露了其自主导航系统的测试进展,强调"从着陆到起飞全程无需地面干预"。

这种技术路线的差异值得注意。NASA选择将AI定位为"人类辅助",而商业公司更倾向于"人类监督下的自主运行"。两种哲学没有绝对的对错,但代表了不同的风险承受能力和责任归属模式。

西蒙的任务因此具有了双重意义:它既是技术验证,也是组织学习。NASA需要观察宇航员如何与AI互动——信任何时建立、何时破裂、误报如何影响任务节奏——这些定性数据将塑造未来任务的自动化策略。

欧空局的项目经理在2024年10月的欧洲航天会议上提到了一个细节:西蒙的语音交互被刻意设计为"非人格化",避免宇航员产生情感依赖。「我们不希望出现'西蒙说'的服从心理,也不希望宇航员因为'不想麻烦它'而隐瞒问题。」

这种设计选择反映了航天心理学的一个经典教训。阿波罗13号事故中,地面控制团队与宇航员之间形成了高度紧密的信任关系,但这种信任建立在双方对人类能力和局限的共同理解之上。AI作为新变量,其"人格"设计将直接影响团队协作的动态。

被低估的工程挑战

将AI送入太空,远非"把服务器装进飞船"那么简单。西蒙面临的工程约束,暴露了地面AI系统很少需要考虑的问题维度。

辐射是首要威胁。月球轨道处于地球磁层保护之外,宇宙射线强度是国际空间站的5至10倍。商用计算芯片在这种环境下会产生单粒子翻转(single event upset)——一个高能粒子穿透硅片,可能改变内存中的任意比特。西蒙的硬件采用了抗辐射加固设计,但代价是计算性能相比地面版本下降约40%。

热管理同样棘手。飞船内部的温度波动范围从-150°C到+120°C,取决于是否处于阳光直射。AI系统的散热设计必须适应这种极端循环,同时不能增加飞船整体的热控负担。

最隐蔽的挑战是"数据饥饿"。深度学习模型的性能高度依赖训练数据的多样性,但太空异常事件的历史记录极其稀缺。西蒙的异常检测能力主要基于地面模拟和空间站经验,而月球轨道环境(特别是穿越范艾伦辐射带的高能粒子暴)可能产生从未见过的传感器模式。

NASA的解决方案是"保守的适应性":西蒙在任务初期以高阈值运行,减少误报;随着积累特定环境数据,逐步放宽检测灵敏度。这种"边飞边学"的策略需要地面团队的持续介入——恰好与任务设计目标形成张力。

另一个被低估的问题是验证的可行性。地面AI系统可以通过A/B测试迭代优化,但航天任务的软件冻结点(software freeze)通常在发射前数月就确定。西蒙的算法版本将被锁定,任何后续调整必须通过有限的软件补丁通道实现。

这种"发射即定型"的特性,迫使开发团队在地面阶段就覆盖尽可能多的边缘情况。欧空局透露,西蒙的测试用例超过10万个,但团队承认"无法穷尽所有可能的传感器组合"。

行业影响的预判

阿尔忒弥斯二号的AI实验,无论成败,都将产生超出任务本身的连锁反应。

最直接的受益者是深空探测的自动化标准。如果西蒙在关键场景下提供了有效支持,NASA可能加速推进"人机协作"(human-autonomy teaming)的规范制定。这包括AI建议的呈现方式、人类否决权的触发条件、以及责任归属的法律框架。

更深远的影响在于数据资产的积累。西蒙在任务期间产生的交互日志、决策记录、异常响应案例,将成为后续AI系统训练的稀缺资源。目前,公开的太空任务人机协作数据几乎为零,这个空白严重制约了相关研究。

商业航天领域已经在布局。洛克希德·马丁2024年成立了专门的"自主系统"部门,瞄准月球和火星任务的AI集成。其首席技术官在投资者会议上明确表示,阿尔忒弥斯二号的西蒙数据是"我们最密切跟踪的技术指标之一"。

但风险同样存在。如果西蒙在任务中出现重大失误——无论是漏报关键异常还是产生干扰性误报——可能引发对太空AI的过度审慎反应。航天机构的决策文化倾向于"一次失败、十年回避",这种惯性可能延缓技术进步的合理节奏。

一个更微妙的变量是公众认知。阿尔忒弥斯二号是人类重返月球的标志性事件,媒体叙事必然聚焦于宇航员的英雄形象。西蒙作为"新乘客"的角色,可能被渲染为技术威胁或科幻噱头,而非工程务实的体现。这种叙事偏差可能影响政策制定者对后续AI投资的优先级判断。

回到那个核心问题

我们为什么要在飞船上放一个人工智能?

最诚实的答案是:因为人类已经走得太远,远到地球无法及时伸手相助,又还没有远到必须完全依赖机器。月球是一个尴尬的距离——近到让人怀念地面控制的可靠,远到不得不寻找新的支撑。

西蒙的设计选择——辅助而非替代、透明而非黑箱、保守而非激进——反映了这个特定阶段的特定焦虑。它不是AI能力的上限展示,而是人类在信任与怀疑之间的谨慎试探。

2025年11月,当猎户座飞船划过月球背面,地球消失在视野之外,四名宇航员将与一个15公斤的金属盒子共享那段寂静。西蒙不会感受孤独,但人类会。而正是这种孤独,驱动我们创造对话的对象——哪怕对方只是一个经过精心设计的回声。

这次任务真正的产品启示或许在于:技术创新的节奏,从来不只是由性能指标决定,而是由人类愿意承担的不确定性边界塑造。阿尔忒弥斯二号的AI实验,是在为那个边界绘制新的坐标。