战争新形态的序幕已经拉开。
据美国方面消息,美军在2月28日斩首哈梅内伊和1月2日掳走委内瑞拉总统马杜罗时,使用了人工智能公司Anthropic的大语言模式Claude进行情报收集,识别敌人以及模拟作战场景。再综合1月9日美国五角大楼发布“以人工智能优先的作战力量”文件,可以说人工智能进入美军作战指挥系统的疑团,已经越来越让人无法忽略。
军事观察家们认为,哈梅内伊在官邸跟家眷一起遇害的斩杀手法,非常类似以色列国防军使用Lavendar软件对付加沙武装人员的“爸爸在哪儿”模式。冷酷而精准的AI工具,将改变战争的形态。
这场战争,指向一个不久的将来可能会出现的场景:一个活人,可能交由人工智能判断是否该被消灭;屏幕中的几行指令,可能决定万里之外一个国家领导层的存废;计算机房里的算法,已经决定了战事要持续多长时间。
在选举期间,多次主张对“军工复合体”开战的特朗普,拿出了更加精准、杀人更加无情的“军工复合体”机器,一个“什么人该杀”和“什么时候杀人”的水晶球——为统帅和指挥官出谋划策的人工智能系统。
“如果人工智能驱动的响应速度超越人类决策速度,人类在国家防务中的作用可能沦为次要角色,甚至沦为一个形式。”这是美国前国务卿亨利·基辛格在晚年最后一本书《人工智能时代》中传达的警告。
一边是烽烟四起的中东,一边是指挥室里屏幕上的地图,乃至跳出来的一行行代码。后世历史学家如果还有机会追究任何战争责任的话,那么他们可能会被“人工智能决定”这样的借口搪塞。
“上帝视角”
当地时间2月28日上午9时40分,美以空军准时倾巢而出。当时,伊朗最高领袖哈梅内伊从深山里的地下掩体返回德黑兰住处,跟国安幕僚开会,从而把自己暴露在外国火力的短暂窗口中。
一开战就把哈梅内伊和一众国安决策层炸死,也就成为了整个“史诗震怒行动”的序幕。
如此直接而快速地斩首敌国首脑,在过去战争历史中几乎前所未见。“假如二战刚开始第一天希特勒就被炸死了,往后会有什么发展?”英国时政博主、前国际合作与发展大臣罗里·斯图亚特这样说。
“史诗震怒行动”开始不过4-5天,伊朗以及其支持的黎巴嫩真主党等组织领导人,以小时为单位迅速在人间消失。杀死哈梅内伊的同一天,参加会议的伊朗最高国家安全委员会秘书阿里·沙姆哈尼和国防部长纳西尔扎德等40名高官被杀。
特朗普一天后宣称,其他能够潜在接替哈梅内伊的二号和三号人物相继被杀死。伊朗的其他军政高层更在开战两天内遭团灭:从伊朗陆军司令到革命卫队武装司令逐一遇害。黎巴嫩真主党在宣布针对以色列参战后,其领导人Reda Khazai就被以色列国防军斩首。
斩杀如此神速,背后除了有长期铺垫的情报网络之外,推算其生活和工作出行模式的AI工具,也非常重要。根据美国媒体的报道,执行“史诗震怒行动”期间,美军使用了由服务商Anthropic提供的大语言模型Claude辅助决策。
让AI加入作战辅助,为的是给美军制造一个“上帝视角”:通过实时数据分析能力,可将海量分散的数据流整合到单一、统一的界面中。坐在电脑前的操作员,能从整个伊朗乃至中东的宏观战略全局,一下子放大到刺杀对象的个体细节,坐什么车,穿什么衣服,跟什么人会面。
也就在2月28日上午,美以军方在伊朗164.5万平方公里的国土上,快速锁定哈梅内伊一个人的出没地点。
在过去,要追踪刺杀对象的行踪,判断他的生活轨迹和行为模式,需要情报人员花大量的时间进行收集和比对。通过AI系统,这个漫长的比对过程可以完全省略,从而加快锁定刺杀对象的时间。
连同哈梅内伊遇刺的,还有他的妻儿孙子。这种清除模式,也跟过去以色列国防军在加沙地带针对刺杀目标的AI工具“Lavender”使用的策略有点相似:刺杀目标进入自家门口跟家人团聚的时刻,比在战壕中作战时,更加容易被锁定杀死。这就是所谓的“爸爸在哪儿”运算模式。也就是这个模式,在刺杀作战对象的同时杀死了其家人和邻居,在加沙地带导致了大量的无辜人员伤亡。
兵贵神速。这次战争,史无前例地实现了快速把敌军乃至敌国的领导层消灭这个在过去难以想象的战术目标。也许是从第一次实战成果中嗅出某些味道,资本已经闻风而动。在开战后的周一,也就是开战后的第一个交易日,Palantir等多个有机会参与美国防务投资的人工智能公司股价应声而起。
随着人工智能从辅助完成繁琐工作走向作战指挥,使用的底线和权限,也在美国政商界惹起争议。
“以人工智能优先”
“加速前沿模型的实验进程”“消除人工智能部署的官僚障碍”“优先发展计算与数据领域的非对称优势”“将人工智能融入核心决策循环”……这是美国战争部网站在今年1月9日发布的人工智能战略文件。这份文件的核心,就是要把美军打造为“以人工智能优先的作战军队”。
这份文件,相当于宣告了美国的军工复合体在特朗普第二任期完全投入到人工智能的竞赛中。在针对伊朗发动军事打击前一天,特朗普和美国战争部就跟人工智能承包商Anthropic展开了一场隔空骂战。
开战稍早几个小时前,美国战争部跟Anthropic的外包谈判宣布破裂。战争部部长海格塞斯部长在社交媒体上认定Anthropic为“供应链风险”,切断与其合作。特朗普也同时宣布,让所有联邦机构在六个月内清退Anthropic的所有外包服务。
战争部对人工智能外包商的要求,包括他们给出的模型能够用于“所有合法目的”。而Anthropic坚持要在合同中设置“不能将AI用于大规模监视公民”,“也不能在无人参与的情况下部署到自主武器中”等条款。而五角大楼的回应则是,没有任何私营公司可以决定其工具如何被合法使用。
特朗普在社交媒体上把Anthropic形容为“某些失控的激进左翼人工智能公司,由一群根本不懂现实世界的人所掌控”。
换句话说,特朗普和海格塞斯对人工智能参与作战的终极目标就是——能直接帮忙打仗,能决定扣动机枪杀人的时机。在Anthropic的创办人达利欧·奥莫戴看来,这已经违反了公司创办之初的原则。在Anthropic出局美国战争部订单后,其名下的产品Claude竟然在社交媒体上火了一阵子。
在相当一部美国公众看来,战争部的这一做法,相当于把当年美国在阿富汗和伊拉克使用Palantir系统的那一套监控模式,套用在自己的身上。
而且,让人工智能在使用武力时拥有更多的自主权限,也很有可能触发不可收拾的局面。“战争是政治的延续”——从古至今,人类之间的战争,一直是人作为战事的最终决定者。但如果有一天人主动把这个位置让给人工智能,是否最终变成人工智能主导战事?
基辛格的警告
如果人类在热战中拍板决定的决策权,拱手让给人工智能,可以设想一下,到了某个历史转折点,人工智能的自主意识发展成熟,自以为以“上帝视角”审视对手的三军统帅,可能暗中已经成为了被人工智能反过来指挥的一个棋子。
在跟Anthropic的争执中,海格塞斯和特朗普强调的是效果和速度;在针对伊朗的军事行动中,猎杀对方领导层讲求的是速度。而在美国已故国务卿基辛格看来,人工智能收集信息并且作出判断的速度,肯定远超人类。
在以色列国防军“爸爸在哪儿”的策略中,人工智能通过算法认定参加家庭聚会的男人是猎杀对象时,坐在屏幕前的以色列军人只有大概20秒时间去辨别和核准,然后就按下猎杀的按钮。在这套流程里,尽管人是最终按下杀人按钮的主体,但实际上一整套采集信息和算法判断的流程,已经交给了人工智能。
而技术的扩散总是拦不住的。正如美国在二战末年率先研发出原子弹,不久之后苏联就获得了相同的技术那样,人工智能进入多国作战指挥系统的趋势,现在看来已经难以扭转了。也许,到时候国与国的战事也就变成了几个人工智能体之间的较量。而这将从根本上改变战争的性质。
荷兰历史学家鲁特格·布莱格曼在《人类——一段有希望的历史》中认为,智人之所以在繁衍上胜过尼安德特人,乃至其他灵长类动物,靠的不是体力,不是体积,甚至不是智力,而是人与人之间还存在“善”。
他在书中引用了这样一个调查数据:在珍珠港事件中,开火还击的美国军人其实不到一半。这个调查的结论是,在实际战争中,愿意扣动板门杀戮同类的军人,比例其实没我们想象的高。
而人类之所以进化到一定阶段后对杀戮感到恶心厌恶,是在数万年的演化中,保存了相互关爱和协作的倾向。也正是这种倾向,让智人在众多灵长类动物中脱颖而出。
一旦杀人的任务真的有一天完全交给“会打仗的人工智能”,那些一串串没有“善”的基因的代码,在对速度和效率的追逐下,将会有多少碳基活人被人工智能在地球上抹去?
文中配图部分来源于视觉中国,部分来源于网络。首图为伊朗首都德黑兰拍摄的浓烟,来源于新华社
作者 |远游
编辑 |阿树
值班主编 | 吴擎
排版 | 菲菲
热门跟贴