前段时间,外媒爆料特朗普之所以打伊朗是因为战前内塔尼亚胡给他看了AI预测的战局推演,结局是“美国大胜”。成了坚定特朗普信心的重要因素。

但这并不代表AI就完全不靠谱了。预测战局失败是因为AI算不到人心,但是用在杀人方面,却是十分可怕的。

“全自动处决”,这个听起来像是科幻电影里终结者专属的名词,目前在以色列的手里成为了显示。从搜集目标的生活琐事、锁定目标的日常行踪,到最终策划一次完美的暗杀行动并按下发射按钮,整个过程全部由AI自行决断、自行执行。

打开网易新闻 查看精彩图片

以色列方面宣称,自从这套系统投入实战测试以来,短短时间内,就已经高效猎杀了至少250名伊朗大小官员。几十名伊朗高官,连敌人的影子都没摸着,就在喝茶、坐车或者回家的路上,不明不白地死于AI的精密算计之中……

打开网易新闻 查看精彩图片

用你的摄像头锁定你的命

要让AI在几千万人口的国家里精准揪出几个特定的高级官员,第一步,就是疯狂地“吃”数据。而以色列的情报网,早就如同病毒一般,深深扎根在了伊朗社会的各个角落。这其中,黑客、间谍和那些被收买的内奸,组成了最致命的情报输送管。

但最让人意想不到,也最细思极恐的,是伊朗满大街的监控摄像头,竟然成了悬在伊朗官员头顶的催命符。

时间倒退回2023年。那时候的伊朗,因为国内不戴面纱的女性越来越多,抗议活动此起彼伏。为了加强管控力度,伊朗政府下血本,在全国范围内大搞监控系统升级。不仅摄像头的数量翻了倍,更要命的是,他们大幅提升了摄像头的像素,并引入了更高级的自动识别系统。

打开网易新闻 查看精彩图片

这本是用来抓不戴面纱老百姓的工具,却没成想,给躲在暗处的以色列黑客送上了一份“神辅助”。当以色列成功入侵这套升级后的国家级监控系统时,整个伊朗的街头对他们来说就成了单向透明的玻璃房。路上行人的高清面容、车辆的轨迹信息,24小时不间断地流入以色列的AI数据库中。

试想一下,如果当初伊朗没有花大价钱升级这些高清智能摄像头,依然用着那种连车牌都拍不清的老款设备,AI的识别难度将会成倍增加。历史就是这么充满黑色幽默,伊朗自己花钱打造的“高清天眼”,最后却成了以色列最锐利的“刺杀瞄准镜”。

打开网易新闻 查看精彩图片

拼图式的猎杀游戏

光有摄像头还不够,AI想要布下天罗地网,还需要更多生活细节的填充。这也就是为什么,伊朗的网络支付平台成了黑客攻击的重灾区。

你今天在哪里买了杯咖啡?昨晚住在哪家酒店?平时喜欢走哪条路上下班?这些看似零碎的支付信息,在人类眼里可能只是一堆乱码,但在AI强大的算力面前,却是一块块完美的拼图。

打开网易新闻 查看精彩图片

更致命的,是那些隐藏在伊朗内部的“犹大”。这些被收买的内奸,会像幽灵一样,把某个官员极其私密的生活习惯偷偷传递给以色列。

当这些内奸提供的情报输入系统后,AI这场无声的猎杀游戏就正式开始了。全城被黑客控制的摄像头开始死死盯住这个目标:不管是官员本人的脸,还是他司机的长相,甚至是保镖的体态,所有相关的蛛丝马迹都被AI贪婪地过滤和收集。

长达几个月的时间里,这位高官可能还在安然度日,但他根本不知道,AI已经用无数个碎片,精准地描绘出了他一整天的行为轨迹。一旦这种轨迹被AI反复验证确认为无误,处决计划就会立刻生成。

是在他必经的十字路口提前埋下炸弹?还是半夜派无人机悄悄潜入卧室?又或者是直接从几百公里外呼叫精确制导导弹进行“降维打击”?一切都由AI根据成功率自动判定。

打开网易新闻 查看精彩图片

在伊朗战争中,那四处被导弹瞬间夷为平地的建筑,就是AI交出的恐怖答卷,四位伊朗高官就在这种毫无防备的精准打击中灰飞烟灭。

打开网易新闻 查看精彩图片

福音与薰衣草

这套杀人系统其实并不是为了这次伊朗战争临时抱佛脚赶出来的,它早就在残酷的加沙战争中,用无数巴勒斯坦人的鲜血完成了“进化”。

2024年的一部名叫《人工智能如何告诉以色列该轰炸谁》的纪录片,就彻底掀开了以色列这两套杀人AI系统的底牌。它们有着极具反差感、甚至有些诗意的名字:“福音”与“薰衣草”。

“福音”就像是一个没有感情的推土机,它的任务是大规模的扫荡,目标对准的是建筑和组织。它把目标威胁度分为四级:从军火库、哈马斯地下隧道,一直到哈马斯成员的住宅,甚至包括那些被判定有威胁的普通高层公寓。

打开网易新闻 查看精彩图片

“福音”24小时不知疲倦地分析着这些目标,一旦时机成熟,它就会直接下达摧毁指令。过去,人类情报团队为了确认16个轰炸目标,从搜集、分析到上级层层审批,最快也得熬上一个星期。而现在,“福音”只需要12个小时,就能干净利落地走完这整套流程,甚至连发射导弹的手续都办好了。

如果说“福音”是推土机,那么“薰衣草”就是一把见血封喉的手术刀。它专门针对特定人员进行点对点的暗杀。

早在战争爆发前,“薰衣草”就已经收集了至少37000名哈马斯成员的海量数据。它不是等仗打起来了才去满世界找人,而是早就为这37000人挨个建立好了详尽的生活轨迹档案,并量身定制了最有效的死法。

这也解释了,为什么战争一开打,哈马斯和伊朗的那些重要人物会像被点名一样,成批成批地遭到精准猎杀。

打开网易新闻 查看精彩图片

连带伤害?在AI眼里只是冰冷的数字

高效、快速、刀刀致命,这是AI带来的战争红利。但这背后,却隐藏着一个极度血腥的代价——对平民生命近乎麻木的漠视。

打开网易新闻 查看精彩图片

人类指挥官在下达轰炸命令时,或许还会有片刻的道德挣扎。但AI是冰冷的机器,它只看重数据的最优解。在今年的伊朗战争中,以色列给AI系统设定了一条令人发指的“红线”:

为了杀掉一名低阶的敌方官员,AI可以“顺便”搭上15到20名无辜平民的性命;而如果是为了猎杀一名高级官员,这个数字可以被冷血地放大到300人!

只要平民的死亡预测人数没超过这个设定值,AI就会毫不犹豫地按下发射键。

这种用算法来衡量人命的残酷逻辑,有着血淋淋的数据支撑。在2014年的加沙战争中,大约有1400名平民丧生;而到了AI全面接管的2023到2024年加沙战争,巴勒斯坦平民的死亡人数呈几何级数暴增,达到了恐怖的34000人。这多出来的二十倍冤魂,就是AI追求极致斩首效率的直接牺牲品。

在这场用代码杀人的狂欢中,美国自然也不甘落后。他们通过知名企业,将最先进的大模型导入到国家军事平台中,让AI的指挥权限空前膨胀。过去几千个人耗费半个月才能制定出的打击清单,现在只要20个人花几个小时就能搞定。

打开网易新闻 查看精彩图片

在短短30天内,AI成批次地处决官员,摧毁上千个目标,甚至在某些战役中疯狂打击了11000个节点。这种恐怖的实战效率,确确实实正在彻底改写人类未来战争的规则。

在冷酷的算法面前,那些无辜的平民不再是鲜活的生命,他们变成了只要不越过“容忍度数值”,就可以被连同暗杀目标一起抹除的一串串无效代码。

当人类把屠刀完全交给毫无悲悯之心的机器时,这究竟是科技的巨大进步,还是文明的彻底堕落?