4月中旬,美伊谈判破裂、美国宣布封锁霍尔木兹海峡后,AI 参与军事决策与前线开火授权引发的规则变革讨论。过去人们理解中的战争,通常还会有一整套较完整的流程:情报人员去盯线索,参谋部门开展研判和讨论,指挥官对利弊进行权衡,行动部队再执行命令。这个过程虽然慢,却也保留了一种“刹车”作用,让人还有时间去犹豫、复核以及修正。

可现在,这道刹车正在被AI一点点拆掉。目标锁定、信息比对、威胁排序、打击方案生成,这整条“杀伤链”已经被压缩到几分钟,甚至几十秒。人表面上还坐在指挥席上,但很多时候,更像是在对系统给出的结论进行确认。

打开网易新闻 查看精彩图片

以色列近年被频繁提到的一些相关系统,真正让人不安的地方,不只是算得快,而是把“判断”这件事做成了流水线。以前是人主动去找目标,现在更像是系统先从海量数据当中筛出“像目标的人”,再把名单推到人面前。

在加沙战场上,一些自动识别系统曾被曝出容许较大的误差空间。附带伤亡甚至也可能被提前纳入模型计算,被包装成“可接受代价”。这样一来,战争判断的逻辑就发生了变化。原来讨论的重点是“该不该打”,现在却越来越滑向“值不值得打”。

人在高压力、快节奏的环境里,往往很容易去依赖机器。指挥官要面对倒计时、敌情变化以及政治压力,这个时候系统马上给出几套方案,连成功率都标注好了,还会有多少人愿意慢慢提出质疑。于是,所谓“人类决策”很容易退化成“人类确认”。人并没有消失,但人的迟疑、怀疑以及复核能力,正在被快速压缩。

打开网易新闻 查看精彩图片

AI并不真正理解战场。它可以识别图像、比对数据、在数据库里跑出相关性,但它无法真正明白现实细节背后的分量。一个人肩上扛着的,到底是武器还是工具;一个快速移动的人群,到底是武装人员还是逃命平民;一辆停在街边的车,到底是发射平台还是送货皮卡。

也正因为如此,技术越先进,责任反而越容易变得模糊。程序员可能会说,自己只是写代码;军方会说,系统只是提供建议,决定是依照流程做出的;供应商则可能表示,模型准确率已经达标,具体怎样使用并不归它管理。机器不会坐上被告席,算法也不会认错流泪,最后最容易消失的,反而是责任链条。

不少人原本以为,AI参战会让战争更加精准,现实远没有这么简单。因为技术在提高精准度的同时,也在降低开火门槛。过去要发动一次打击,往往还要经历动员、争论以及政治后果评估;现在系统几秒钟就能给出答案,决策者更容易产生一种错觉:既然已经有数据背书,那就执行吧。战争于是从“慎重考虑后发动”,慢慢转向“计算完成即可执行”。

早些年,许多工程师还坚持不要把代码拿去开展杀戮工作,有人联名反对,也有人直接辞职离开。可当国家安全、战略竞争以及技术优势这些议题被摆上桌面后,企业又开始回到军工合作当中。说到底,在大国博弈面前,AI已经不只是产品,也不只是资本故事,而是新一轮战略资源。

打开网易新闻 查看精彩图片

也不能把AI看成无所不能。战争终究发生在物理世界,而不是服务器里。地下工事、机动发射车、伪装目标以及真假信号,都在提醒数据看得再多,也不代表现实一定会按照数据库来运行。战场从来不是一张表格,而是混乱、欺骗、误判以及偶然性交织在一起的集合。把这样一个世界交给概率模型去主导,本身就是高风险操作。

真正危险的地方,不是机器变得更聪明,而是人开始偷懒,把道德判断外包给机器。算法可以用来辅助分析,却不应该替代良知;系统可以帮助提高效率,却不能把责任吞掉。战争再怎么高科技,也不该把生命压缩成一串参数。

打开网易新闻 查看精彩图片