你以为现在战争里扣扳机的还是人?其实AI已经悄悄接管了大半决策权!

国际社会一直说“扣动扳机的必须是人,而非机器”,可现实早就走样了。名义上无人武器只是替代前线暴露,AI大模型也只是给作战建议,但真的是这样吗?

想象你是个无人机飞手,坐在屏幕前盯着数十公里外的热成像画面。几个模糊的红点晃来晃去,是士兵?伤兵?还是平民?信息就这么点,你怎么判断打不打?或者你在前线附近,戴着VR眼镜紧张到心跳加速,看到个疑似逃跑的“士兵”就冲上去,撞上前才发现是穿军装的平民——这种误判,离我们真的远吗?

打开网易新闻 查看精彩图片

好消息是俄乌战场这类情况不多,但那是因为前线40公里宽的区域早没平民了。可如果下一场战争开局,就是一堆视野有限、成像模糊的无人机互相扫射呢?到时候,谁来为那些模糊目标的生命负责?

更大的问题在AI辅助军事决策上。美国西点军校的学者们都在吵:当AI处理的数据多到人类根本看不懂,指挥官怎么才算“认真审查”了AI的建议?给没给够思考时间?

美以伊战争已经露出苗头。美军第一次用大模型给大规模作战方案,一开始还集中炸军事目标,后来就扩到政府、警察局,甚至公路桥梁这些基础设施。外界都猜是不是AI根据伊朗的战争韧性给出的分阶段打击建议,连西点学者都在辩“平民领导人和警察算不算军事目标”——这哪还是机械化战争时代的“体面”打法?

日常生活里我们问AI的问题大多没标准答案,可战争里呢?如果AI被要求“速战速决”,它会怎么算军事利益和平民伤害的比例?它告诉你方案“不体面”但高效、没法律风险,你用不用?

更可怕的是,当AI给出“最优解”,决策者会不会直接放弃思考?到时候,按按钮的还是人,但下达指令的其实是AI——战争就彻底变了味。

学者们给出了不少办法:定期清理数据、明确责任权限、培训指挥官懂AI,甚至给AI加阻断机制,比如识别出医院就直接跳过。可让人悲观的是,AI对“军事必要”的极端计算,只会让人类对附带伤害的容忍度越来越高。

你想想,当AI把所有选择都量化成数字,人类还能守住“人决定生死”的底线吗?未来战争里,AI该被限制到什么程度?是完全禁止自主决策,还是有条件使用?评论区说说你的看法,看看大家都怎么想!