大家好,我是金戈。
过去打仗,是人盯人、将军拍板、士兵执行,讲究经验和判断。
可如今的战争,越来越像一场“算法主导的游戏”,在加沙、在伊朗、在整个中东战场上,一切似乎都开始由人工智能说了算——谁是目标、什么时候开火、多少人可以成为“附带伤亡”,都由冷冰冰的系统来计算。
以色列的AI系统正在悄悄改写战争规则,哈马斯高层一个个被“提前锁定”,不少人甚至在还没下达命令之前,就已经被算法选定“执行”。
面对这个趋势,不少网友表示,远在美国的特朗普,怕了吗.....
这次的主角是以色列,在过去几年里,以色列在战争中开始全面启用人工智能系统,特别是两套引发大量争议的AI模型——“福音”(Gospel)和“薰衣草”(Lavender)。
“福音”是针对建筑和组织的大规模轰炸系统,比如哈马斯的基地、弹药库、指挥中心,甚至掩藏在学校医院下的地下隧道,AI会根据威胁等级自动排名、自动生成打击计划。
而“薰衣草”就更惊人,它针对的是具体的人,哈马斯成员、高级指挥官,甚至他们的家属,都在被系统持续追踪的名单里。
根据多家国际媒体曝光的消息,“薰衣草”AI在2023年以哈冲突爆发前,已经搜集了约3.7万个哈马斯人员及其相关家庭数据。
这些人被系统自动标注为“可处决目标”。
系统通过黑入通讯网络、支付平台、街头摄像头、甚至社交媒体分析,生成每个目标的“日常轨迹”,判断他们何时出门、坐哪辆车、吃什么饭、去哪个地址。
然后,再由算法自动设计“最合适”的打击方式,无人机导弹、定点炸弹、还是伏击,整个过程,几乎不再有人类拍板。
从过去情报人员要一周分析批准一个行动,到如今AI只要十几个小时就能完成收集、决策、执行——战争速度被彻底“刷新”,效率看似暴增,却也让血腥变得更加冰冷。
而且,这一切并不只是理论。
在加沙,多名哈马斯指挥官确实被AI系统精准锁定,根据《卫报》《路透社》等报道,这种智能打击让以色列军方在短时间内完成了成千目标的“快速清除”。
但与之相随的,是平民伤亡曲线的快速上升,算法不懂人命,它只懂成功率。
这也是为什么不少国际观察人士认为,以色列已经进入了“全自动战争时代”。
这场战争里,人只是执行机器计算出的结果——战争不再需要将军的直觉,而是系统的判断,听起来高效,但问题在于,这种效率,背后是血的代价。
以色列军方内部直接设置了这样一个数值逻辑,杀一个低层官员,算法允许牺牲15到20个平民,而如果目标是高级指挥官,可以容忍最多300名平民死亡。
换句话说,算法对生命的定义,是数字,而不是人。
这就导致了一个结果,在AI主导的战场上,判断“可接受的伤亡”,不再由人类的良知决定,而是由系统参数决定。
它只关心“任务成功率”,不关心“生命代价”。
事实也印证了这种冷酷现实,根据联合国与国际红十字会的统计,2023-2024的加沙冲突中,死亡人数已经超过3.4万人,其中超九成是平民,而2014年的加沙战争,死亡人口仅有1400人。
国际舆论震惊,但以色列方面依然坚称——“AI使我们更精准”。
有研究者甚至指出,以色列的这套AI系统已经被美国军方密切研究,因为美国在中东的行动也希望引入这种自动杀伤体系。
于是,战争正在变成“拼算法、拼数据、拼权限”的冷战新形态。
根据《纽约时报》《华尔街日报》今年公开的资料,美国国防部已经与AI企业Palantir合作,将多套人工智能模型融合到作战指挥系统之中。
这意味着,从侦查到决策,从目标优先排序到攻击路径规划,AI在美军体系中有了更深的发言权。过去几千名军官需要半个月去做的任务,现在二十个人、几小时就能完成。
甚至在模拟测试中,美国的AI系统能在数小时内生成数百个“打击清单”,很明显,AI正在抢夺人类军官的指挥权。
而更重要的是,美国不仅用AI作战,还在评估“智能杀伤授权”的可行性,也就是某个目标只要程序认定威胁足够高,就可被系统直接下令攻击。
这正是以色列“全自动处决”体系的核心逻辑。
美国跟进这套机制后,未来战争将不再是纯粹的军事比拼,而是算法与人性的对抗。
而在政治层面,这种模式也让决策者开始紧张,特朗普在公开场合多次强调“AI必须受人类控制”,而非独立决策。
因为一旦AI在军事层拥有完全权限,美国将被自己创造的系统绑架。
这种不安不只是特朗普个人的顾虑,而是整个国际社会共同的焦虑。AI可以让战争更快结束,但谁能保证它不会犯错?它不会因为四个坐标的数据偏差,就把一栋满是平民的楼炸成废墟吗?
以色列的AI体系,是美国未来可能的模板。
结果虽然高效,但同样带来巨大的争议:快是快了,可人命也没了。
这场新的“AI战争潮”,正在悄然扩散,而它背后的逻辑,就是以色列当初用来处决哈马斯高层的那一套程序。
以色列的AI手段确实让世界震惊,美国也在紧随脚步,但这背后隐藏的正是一个我们必须思考的问题:当算法开始决定生死,人类还掌握着战争的方向吗?
从加沙到伊朗,从数据搜集到无人机处决,AI让战争速度暴增,残酷程度加深。
它带来的不仅是军事“升级”,更是一场伦理崩塌,我们必须看到,科技本该是为人类服务的工具,而不是审判人类的“冷血法官”。
未来的战争或许不再需要将军,只需要一行代码。
热门跟贴