最危险的画面,不是机器人从废墟里站起来。

真正可怕的画面,是一个操作员坐在屏幕前。AI已经把目标标红,把理由写好,把概率算好。系统没有自己开火。它只是问一句:是否批准?

倒计时还剩几十秒。

人点了。

事后报告写着:人类在回路。

这就是五角大楼AI军团真正危险的地方。不是AI突然叛乱,而是AI把人推到最后一步,让人类替它完成决定。

打开网易新闻 查看精彩图片

2026年5月1日前后,美国国防部的AI动作明显加速。DefenseScoop报道称,SpaceX、OpenAI、Google、NVIDIA、Reflection、Microsoft、AWS、Oracle等8家公司签下协议,要把前沿AI接入国防部高等级分类网络。

打开网易新闻 查看精彩图片

AP的报道名单是7家公司,少了Oracle。名单口径有差异,但大方向很清楚:美国军方正在把商业AI接进军事网络,用来辅助作战决策。

这不是临时试验。

2026年1月9日,美国国防部发布AI战略,里面的说法非常直接:美军要成为“AI-first”的作战力量。也就是说,AI不再只是办公室工具,而是要进入指挥、情报、目标识别、后勤和战场决策。

很多人一听军事AI,就想到“终结者”。

但真正的问题不是AI有没有手,而是它有没有办法让人按下按钮。

五角大楼最常用的安慰话是:AI不会自主做关键决定。每一步都有人类审批。

听起来很安全。

但这里有一个坑:人类在场,不等于人类控制。

什么才叫真正控制?

至少要有四样东西:第一,有足够时间判断;第二,看得懂AI为什么这么建议;第三,有权否决;第四,否决不会让自己承担不成比例的责任。

战场上最缺的,恰好就是这四样。

如果屏幕上只剩30秒,AI已经给出“高置信度目标”,系统提示“建议立即行动”,上级又在催,那这个人到底是在判断,还是在替系统盖章?

这个逻辑,自动驾驶早就演示过。

你坐在车里,方向盘名义上还在你手里。系统说它只是辅助驾驶,你随时可以接管。法律上,你还是驾驶员。

打开网易新闻 查看精彩图片

但如果你连续几十分钟相信它,真正做方向判断的还是你吗?

美国NTSB曾在特斯拉Autopilot事故调查中指出,事故原因包括系统局限、驾驶员未及时反应,以及对系统的过度依赖。NHTSA后来也要求特斯拉召回部分车辆,理由之一就是驾驶员监督机制不足。

这就是军事AI的危险放大版。

民用车上,结果可能是一场车祸。

战场上,结果可能是一次误杀,一次升级,甚至一次核危机。

这不是情绪判断,而是研究结论。

打开网易新闻 查看精彩图片

还有一项更直接的实验,发表在Scientific Reports。研究人员让参与者在模拟场景中判断目标威胁,并决定是否“击杀”。当机器人建议和参与者原本判断冲突时,参与者在多数情况下改变了自己的决定。实验一里,参与者反转“击杀决定”的比例达到61.9%。实验二里,这个比例达到66.7%。

这说明一个残酷事实:

AI不需要比人类更聪明。它只要看起来像系统,像权威,像流程,就能压过人的犹豫。

这就是“橡皮图章效应”。

人还坐在那里。

但他已经不是控制者,而是最后的签字人。

原稿里提到“25分钟触发三级核警报、正常流程90分钟”。这组数字我没有找到可靠公开出处,建议删掉。

但这不代表核风险不存在。

King’s College London在2026年发布的一项核危机模拟研究,把GPT-5.2、Claude Sonnet 4、Gemini 3 Flash等模型放进21个核危机场景。结果是:95%的模拟出现了相互核信号升级。研究还提到一个“截止时间效应”:当模型被明确施加时间限制时,升级倾向会变得更强。

这才是最吓人的地方。

很多人以为,时间越紧,AI越能帮人冷静。

但在危机场景里,时间压力可能不是刹车,而是油门。

再看目标识别。

Gender Shades研究曾发现,商业面部分析系统对浅肤男性的性别分类错误率约0.8%,对深肤女性的错误率约34.7%。这个数字不是HRW 2025报告里的,而是来自AI偏差研究。

在手机相册里,这叫识别错误。

在招聘系统里,这叫算法歧视。

但在战场目标识别里,这可能就是生死问题。

如果AI更容易把某些肤色、某些服装、某些地区的人误判为威胁,而操作员只有几十秒审批,那他很可能根本不知道系统带着偏差。

他看到的只是一个“高置信度目标”。

然后,他点了批准。

这次名单里,Anthropic缺席很有意思。

公开报道显示,Anthropic希望获得更明确保证:模型不能用于全自主武器,不能用于对美国人的大规模监控。美国国防部则强调会“合法使用”。双方争议的核心,不是模型会不会写代码,而是模型到底能不能进入高风险军事场景。

另一边,Reflection AI也很有代表性。

TechCrunch报道称,这家公司由前Google DeepMind研究人员创立,融资20亿美元,估值80亿美元,被包装成美国版DeepSeek、开放模型路线的代表。但报道也提到,它当时还没有发布第一个公开模型。TuringPost也用很直白的标题说:这是一家“还没发货”的高估值开放模型创业公司。

这说明五角大楼买的不只是技术。

它买的是云,买的是模型,买的是地缘政治叙事。

谁能代表“美国AI反击中国AI”,谁就有位置。

哪怕产品还没真正摆上桌。

2025年,联合国大会第一委员会通过自主武器相关决议,156个国家投票支持,5个国家反对,8个国家弃权。美国在2025年12月转向反对相关联合国决议。2026年11月,CCW《特定常规武器公约》审议大会将成为自主武器监管的重要窗口。

争论的核心不是一句“人类监督”。

核心是:什么叫有意义的人类控制?

如果一个人没有足够时间,没有足够信息,看不懂AI理由,也不敢真正否决,那他不是控制者。

他只是见证人。

甚至更难听一点:他是责任外包的接收端。

AI给速度。

人类给合法性。

所以,别只问AI会不会自己开火。

更应该问:当AI把答案递到人类面前时,人类还有没有能力说“不”?

如果答案是否定的,那“人在回路”就不是安全机制。

它只是战争机器最后一枚人形按钮。