算法本身是中立的,但用在战场上,AI也能带血。
都知道,美军战斧导弹轰炸了伊朗一所小学,导致165名7至12岁女童丧命。
最开始,特朗普是坚决否认的,后面藏不住了,才爆出来说是用了过期的情报,误以为小学是伊朗海军基地的建筑。
但最近美国独立撰稿人爆出来,其实,不是情报问题,是美军在伊朗战场上使用AI帮助确定轰炸目标,AI出幻觉了,把10年前就已经和海军基地隔开的小学继续当成目标,而人工没有复查……这事儿传的沸沸扬扬,马斯克也转发了。
大模型杀人?听上去很荒诞,但在美军的算法战体系下,真有可能发生。
这次风口浪尖上的,是Anthropic旗下的Claude。
Anthropic这家公司国内报道的不算多,由OpenAI前高管创立的公司,后面因经营理念不合而带队叛逃,结果走上了比OpenAI更彻底的卖身之路。
具体来说,这是最早在美国政府涉密网络部署的AI大模型公司。
2025年,就从美国国防部拿到了一个2亿美元的订单,专门给美国军事力量定制AI能力。
当然,美国人把AI用到军事上,也不是新鲜事了。
你看,效率的确是提高了,但当科技失去了人性的温温度,就沦为了美国军事霸权的权杖。
不光是美国人弄,这次和美国联手打伊朗的以色列,也很早就开始用AI了。
以色列人取得项目名更好听,叫薰衣草。
这套AI系统干嘛的,我一说各位大佬就懂,就是分析230万加沙居民的画像,给他们打分,看有多大概率是恐怖分子。
2023年以色列和哈马斯打起来以后,几个星期,就靠这套AI系统锁定了三万多巴勒斯坦人,说他们是恐怖分子,并且按照AI生产的名单来确定暗杀目标。
离谱的来了。
薰衣草系统,有90%的准确率。
但反过来说,就有10%的错误率。
以色列人那是不管这些的,人类军官就是花20秒看一看,是不是男性啊,是不是看上去就有点危险啊,然后就授权轰炸了。
这些事情爆出来了以后,以色列居然还有话说,说是以色列军队内部有个默认,只要能杀死一名哈马斯,附带不超15名平民的伤亡,都是可以的。
所以反而觉得,用薰衣草,错误率才10%,那都是给平民面子了。
感受到用AI杀人的问题了没有?一切都数字化,对生命是非常的漠视。
但随着具有推理能力的大模型出现,AI开始介入军事决策了,也就是开始做决定了。
Anthropic发布的Claude4系列,号称能持续工作数小时,完成数千个步骤。这种强大的能力,如果缺乏有效的监管与道德约束,后果不堪设想。
其实伊朗学校被袭击之前,Anthropic曾经试图禁止AI用来控制自动武器,结果被美国政府拒绝了。
以至于,特朗普下令,以后不再和Anthropic合作,现在还在用的政府机构,要在未来6个月停止。
但没了Anthropic,还有其他的大模型,美国政府立马衔接了Anthropic的老牌竞争对手OpenAI。
反正不用这家,就用那家,总归是美国军队不能没有AI。
当然,Anthropic虽然和特朗普闹掰,但按《华盛顿邮报》的说法,伊朗战场上还是在使用Claude。
至于美国到底为什么打伊朗小学,到底是情报过期,还是AI误判,可能要等到战争结束之后,才会解密。
不过现在爆出来的这些信息说明,AI真的是被用在杀人上了。
那165名女童的生命,也许就只是AI模型在处理海量情报数据时的一个错误分类,小bug,大伤亡。
在追求高效和国家安全的道德旗帜下,美军开始用冷酷的算法,剥夺平民的声明。
这事儿其实蛮恐怖的。
以前我们看到的不少科幻电影里面都有类似的场景,没想到这么快,就实现了。
而那些科幻片,都不是欢乐幸福的,全都是让人后背发凉的。
热门跟贴