4月中旬美伊谈判谈崩,美国宣布封锁霍尔木兹海峡之后,全网都在聊一个细思极恐的新话题。AI掺和进军事决策、甚至前线开火授权这件事,正在彻底改写过去坚守了百年的战争规则。咱们印象里的战争原来都得走一整套完整流程,现在这套玩法早就悄悄变了。

打开网易新闻 查看精彩图片

过去打个仗,得情报人员盯着线索摸,参谋部门坐下来翻来覆去研判讨论,指挥官拍板前还得权衡半天利弊,最后才轮到行动部队执行命令。这个流程说起来确实慢,可它相当于给战争装了一道“刹车”,真出了错,还有时间犹豫、复核、及时修正。

可现在,这道刹车正在被AI一点点拆掉。从锁定目标、比对信息、给威胁排序到生成打击方案,一整条“杀伤链”已经被压缩到几分钟,甚至几十秒就能走完。表面上看,人还端坐在指挥席上,好多时候其实就是走个过场,给AI系统给出的结论签字确认而已。

这几年以色列那套和AI相关的军事系统被频繁提起,真正让人后背发紧的,不只是它算得快,而是它把“目标判断”这件事直接做成了标准化流水线。过去都是人主动找可疑目标,现在反过来,AI先从海量数据里把“看起来像目标的人”筛出来,直接把名单推到人面前等签字。

打开网易新闻 查看精彩图片

这里最该警惕的,还不单单是AI会不会出错,而是它能错得特别“理所应当”,让人下意识就信服。系统可能直接给操作者显示,某个目标疑似敌对人员,匹配度78%,周边风险可控,可以实施打击。一串冷冰冰的数字摆出来,大部分人都会下意识把它当成权威的科学判断。

可问题就出在这,78%的匹配度不等于正义,所谓的风险可控,也不代表无辜者就该白白付出生命代价。之前加沙战场上就曝出过,当地用的一些自动识别系统,本身就预留了很大的误差空间。就连附带的平民伤亡,都可能提前被塞进模型计算,还被包装成“可接受的代价”。

这么一来,战争判断的逻辑直接变了味。原来开战前大家讨论的核心是“该不该打”,现在却一点点滑向“值不值得打”。人在高压力快节奏的战场环境里,本来就容易下意识依赖机器。

打开网易新闻 查看精彩图片

指挥官要扛着倒计时、应付瞬息万变的敌情,还要接得住上层的政治压力。这个时候AI分分钟给你出好几套现成方案,连成功率都标得清清楚楚,你说有几个人能硬扛着压力,慢慢来提出质疑重新核对。

到最后,所谓的“人类最终决策”,很容易就退化成“人类走流程确认”。人没有从指挥位上消失,可人的迟疑、怀疑、反复复核的能力,正在被快速压缩得没剩多少空间。

打开网易新闻 查看精彩图片

AI从根上说,根本不懂真实的战场是什么样。它能识别图像、比对数据、从数据库里跑出相关性,可它永远没办法明白现实细节背后的人命分量。

一个人肩上扛的,到底是武器还是干活的工具;一群快速移动的人,到底是武装人员还是逃命的平民;停在街边的车,到底是发射平台还是拉货的普通皮卡,AI分不清楚这些区别背后的意义。

打开网易新闻 查看精彩图片

也正因为这样,技术越先进,责任反而越模糊。程序员会说,我只是写代码的,不知道你们用来打仗;军方会说,系统只是给建议,最终决定还是按流程走的;供应商也会推,我们模型准确率已经达标了,具体怎么用不归我们管。

机器不会上被告席,算法也不会认错道歉,到最后,最容易消失的就是整条责任链条。不少人一开始觉得AI参战能让战争更精准,能少死无辜的人,现实根本没有这么美好。

打开网易新闻 查看精彩图片

技术确实拉高了打击精准度,可它同时也拉低了开火的门槛。过去要发动一次打击,还得经历动员、争论、反复评估政治后果,来来回回掂量好久。现在系统几秒钟就能出结果,决策者很容易产生错觉,都有数据背书了,直接执行就完了。

战争也就慢慢变了性质,从原来“慎重考虑后才发动”,一点点转向“计算完成就能执行”。早些年还有不少硬气的工程师,坚持不肯把代码用来做杀人的工作,有人联名反对,有人直接辞职走人。

可后来国家安全、战略竞争、技术优势这些议题摆上台面,科技企业又纷纷回头做起了军工合作。说到底,在大国博弈的语境里,AI早就不只是普通的科技产品,也不是资本市场圈钱的故事,它成了新一轮各国必争的战略资源。

话也说回来,真别把AI吹得无所不能。战争终究是在现实物理世界打的,不是服务器里的程序跑一跑就结束。地下工事、机动发射车、伪装目标、真假混杂的信号,都在提醒所有人,数据收集得再多,也不代表现实就会按着数据库的预设走。

战场从来不是一张整整齐齐的表格,它本就是混乱、欺骗、误判和各种偶然性缠在一起的地方。把这么复杂的世界交给概率模型主导,本身就是一件高风险的事。

真正危险的从来不是机器变得比人聪明,而是人自己开始偷懒,把本该自己做的道德判断外包给机器。算法用来辅助分析没问题,可它不能代替人的良知;系统能帮着提效率没问题,可它不能把所有责任都吞掉。

不管战争有多高科技,都不该把活生生的生命压缩成一串冷冰冰的参数。要是文明发展到最后,只剩命中率和误伤比这些数字说话,那所谓的科技进步,恐怕早就跑偏了。

打开网易新闻 查看精彩图片

机器能算出打击成功率,却算不出一个死去孩子的名字;系统能生成完美的打击方案,却替代不了人去承受犯错的后果。要是连“该不该按下开火键”这种事都交给算法决定,人类守了几千年的底线,还能剩下多少分量呢。

参考资料 环球时报 AI重塑战争规则:美伊对峙下军事决策“刹车”正在消失