最危险的画面,不是机器人从废墟里站起来。
真正可怕的画面,是一个操作员坐在屏幕前。AI已经把目标标红,把理由写好,把概率算好。系统没有自己开火。它只是问一句:是否批准?
倒计时还剩几十秒。
人点了。
事后报告写着:人类在回路。
这就是五角大楼AI军团真正危险的地方。不是AI突然叛乱,而是AI把人推到最后一步,让人类替它完成决定。
2026年5月1日前后,美国国防部的AI动作明显加速。DefenseScoop报道称,SpaceX、OpenAI、Google、NVIDIA、Reflection、Microsoft、AWS、Oracle等8家公司签下协议,要把前沿AI接入国防部高等级分类网络。
AP的报道名单是7家公司,少了Oracle。名单口径有差异,但大方向很清楚:美国军方正在把商业AI接进军事网络,用来辅助作战决策。
这不是临时试验。
2026年1月9日,美国国防部发布AI战略,里面的说法非常直接:美军要成为“AI-first”的作战力量。也就是说,AI不再只是办公室工具,而是要进入指挥、情报、目标识别、后勤和战场决策。
很多人一听军事AI,就想到“终结者”。
但真正的问题不是AI有没有手,而是它有没有办法让人按下按钮。
五角大楼最常用的安慰话是:AI不会自主做关键决定。每一步都有人类审批。
听起来很安全。
但这里有一个坑:人类在场,不等于人类控制。
什么才叫真正控制?
至少要有四样东西:第一,有足够时间判断;第二,看得懂AI为什么这么建议;第三,有权否决;第四,否决不会让自己承担不成比例的责任。
战场上最缺的,恰好就是这四样。
如果屏幕上只剩30秒,AI已经给出“高置信度目标”,系统提示“建议立即行动”,上级又在催,那这个人到底是在判断,还是在替系统盖章?
这个逻辑,自动驾驶早就演示过。
你坐在车里,方向盘名义上还在你手里。系统说它只是辅助驾驶,你随时可以接管。法律上,你还是驾驶员。
但如果你连续几十分钟相信它,真正做方向判断的还是你吗?
美国NTSB曾在特斯拉Autopilot事故调查中指出,事故原因包括系统局限、驾驶员未及时反应,以及对系统的过度依赖。NHTSA后来也要求特斯拉召回部分车辆,理由之一就是驾驶员监督机制不足。
这就是军事AI的危险放大版。
民用车上,结果可能是一场车祸。
战场上,结果可能是一次误杀,一次升级,甚至一次核危机。
这不是情绪判断,而是研究结论。
还有一项更直接的实验,发表在Scientific Reports。研究人员让参与者在模拟场景中判断目标威胁,并决定是否“击杀”。当机器人建议和参与者原本判断冲突时,参与者在多数情况下改变了自己的决定。实验一里,参与者反转“击杀决定”的比例达到61.9%。实验二里,这个比例达到66.7%。
这说明一个残酷事实:
AI不需要比人类更聪明。它只要看起来像系统,像权威,像流程,就能压过人的犹豫。
这就是“橡皮图章效应”。
人还坐在那里。
但他已经不是控制者,而是最后的签字人。
原稿里提到“25分钟触发三级核警报、正常流程90分钟”。这组数字我没有找到可靠公开出处,建议删掉。
但这不代表核风险不存在。
King’s College London在2026年发布的一项核危机模拟研究,把GPT-5.2、Claude Sonnet 4、Gemini 3 Flash等模型放进21个核危机场景。结果是:95%的模拟出现了相互核信号升级。研究还提到一个“截止时间效应”:当模型被明确施加时间限制时,升级倾向会变得更强。
这才是最吓人的地方。
很多人以为,时间越紧,AI越能帮人冷静。
但在危机场景里,时间压力可能不是刹车,而是油门。
再看目标识别。
Gender Shades研究曾发现,商业面部分析系统对浅肤男性的性别分类错误率约0.8%,对深肤女性的错误率约34.7%。这个数字不是HRW 2025报告里的,而是来自AI偏差研究。
在手机相册里,这叫识别错误。
在招聘系统里,这叫算法歧视。
但在战场目标识别里,这可能就是生死问题。
如果AI更容易把某些肤色、某些服装、某些地区的人误判为威胁,而操作员只有几十秒审批,那他很可能根本不知道系统带着偏差。
他看到的只是一个“高置信度目标”。
然后,他点了批准。
这次名单里,Anthropic缺席很有意思。
公开报道显示,Anthropic希望获得更明确保证:模型不能用于全自主武器,不能用于对美国人的大规模监控。美国国防部则强调会“合法使用”。双方争议的核心,不是模型会不会写代码,而是模型到底能不能进入高风险军事场景。
另一边,Reflection AI也很有代表性。
TechCrunch报道称,这家公司由前Google DeepMind研究人员创立,融资20亿美元,估值80亿美元,被包装成美国版DeepSeek、开放模型路线的代表。但报道也提到,它当时还没有发布第一个公开模型。TuringPost也用很直白的标题说:这是一家“还没发货”的高估值开放模型创业公司。
这说明五角大楼买的不只是技术。
它买的是云,买的是模型,买的是地缘政治叙事。
谁能代表“美国AI反击中国AI”,谁就有位置。
哪怕产品还没真正摆上桌。
2025年,联合国大会第一委员会通过自主武器相关决议,156个国家投票支持,5个国家反对,8个国家弃权。美国在2025年12月转向反对相关联合国决议。2026年11月,CCW《特定常规武器公约》审议大会将成为自主武器监管的重要窗口。
争论的核心不是一句“人类监督”。
核心是:什么叫有意义的人类控制?
如果一个人没有足够时间,没有足够信息,看不懂AI理由,也不敢真正否决,那他不是控制者。
他只是见证人。
甚至更难听一点:他是责任外包的接收端。
AI给速度。
人类给合法性。
所以,别只问AI会不会自己开火。
更应该问:当AI把答案递到人类面前时,人类还有没有能力说“不”?
如果答案是否定的,那“人在回路”就不是安全机制。
它只是战争机器最后一枚人形按钮。
热门跟贴