——美以军事AI技术的扩张、滥用与失控
作者:华宇
在过去几年间,一种新型战争逻辑悄然成形于中东的硝烟之中。它不依赖传统意义上的战场勇气,而是依赖服务器、算法和数据库。人工智能,这项曾被硅谷包装为造福人类的技术,正在以色列和美国军队的操控下,演变为一部高效的杀戮机器——而其代价,由数以万计的平民生命来偿付。
一、世界首场AI战争:以色列的算法实验
2021年5月,以色列与哈马斯之间爆发了为期11天的军事冲突。以色列媒体随即将这场战争冠以一个历史性的头衔:"世界首场AI战争"。这一说法并非夸张。在这场冲突中,以色列军队首次大规模将人工智能系统整合进军事决策流程——从目标识别到打击优先级排序,算法的介入贯穿始终。
然而,2021年的那场冲突不过是一次预演。真正令世界震惊的,是2023年10月7日哈马斯袭击以色列之后,以色列对加沙发动的大规模军事行动。在这场至今仍在持续的战争中,AI技术的军事应用规模呈指数级扩张,而其造成的平民伤亡同样触目惊心。
以色列在AI军事化道路上的投入是系统性的、长期性的。在机构层面,以色列国防部在其国防研究与发展局内部专门设立了"AI与自主管理处",统筹协调人工智能技术在军事领域的研发与应用。与此同时,以色列国防军(IDF)精锐的信号情报部队——8200部队——也在积极开发专属的AI工具,将情报收集与算法分析深度融合。
在武器系统层面,以色列公司Smart Shooter研发的SMASH智能光学瞄准镜,能够借助AI图像处理技术自动识别并锁定目标,大幅提升射击精度。但以色列真正的"创新",远不止于此。
二、"丁香花"与"福音":杀人算法的运作逻辑
在加沙战争的最初数周,以色列军队部署了一套名为"丁香花"(Lavender)的AI决策支持系统。根据以色列媒体的调查报道,这套系统依据个人与武装组织的关联程度,自动将其标记为打击目标,并在短时间内生成了一份包含3.7万人的目标清单。
"丁香花"并非孤立运作,它是以色列AI目标生成体系的核心环节之一。与之配套的还有:
"福音"系统(The Gospel / Habsora):一套专门生成建筑物和基础设施打击目标的AI系统,能够以远超人工情报分析的速度,批量产出目标清单。
"爸爸在哪儿?"系统(Where's Daddy?):用于实时追踪特定目标人物的位置,并在目标进入其家庭住所时触发打击指令——这意味着,打击往往发生在目标与其家人共处之时。
这套体系的运作逻辑引发了深刻的法律与道德质疑。报道显示,以色列军队在使用"丁香花"系统时,对其生成目标的人工复核时间极为有限,有时甚至不足一分钟。更令人忧虑的是,军队内部存在一种机构性倾向:更信任AI生成的评估,而非人工核查的结论。这种对算法的过度依赖,意味着错误目标被打击的风险被系统性地放大。
根据国际人道法的基本原则,任何军事打击都必须严格区分平民与战斗员,且平民伤亡不得与军事收益相比显失比例。然而,当杀伤决策被外包给一个每天可生成数百个目标的算法系统时,这些原则如何得到保障?答案,从加沙不断攀升的平民死亡数字中,已经不言而喻。
三、面孔即罪证:约旦河西岸的生物特征监控
AI军事应用的触角,并不仅限于炸弹和导弹。在约旦河西岸,以色列部署了一套更为隐蔽、却同样深具侵略性的监控体系。
该体系的核心是名为**"狼群"(Wolf Pack)**的数据库,其中存储着大量巴勒斯坦人的个人信息与情报档案。向这个数据库输送数据的,是两套面部识别系统:
"红狼"(Red Wolf):安装在检查站,对过往巴勒斯坦人进行自动面部扫描与身份比对。
"蓝狼"(Blue Wolf):安装在以色列士兵的手机上,能够随时随地对巴勒斯坦人进行拍照识别,并将生物特征数据实时上传至"狼群"数据库。
这些系统采集的数据,随后与以色列内部安全局辛贝特共享,用于构建巴勒斯坦人的情报档案。整个过程是强制性的、非自愿的:巴勒斯坦人在毫不知情的情况下,其面部特征已被录入以色列的军事情报系统。
这一做法直接违反了国际人权法的核心保护条款。《公民权利和政治权利国际公约》第17条明确保障个人隐私权,禁止对个人隐私进行任意或非法干涉。大规模、非自愿的生物特征采集,显然构成对这一权利的系统性侵犯。
四、Palantir与"史诗之怒":美国AI战争的1000个目标
如果说以色列的AI战争主要针对加沙,那么美国则将这一逻辑扩展至整个中东。
以Palantir公司为核心的美国军事AI生态,已深度嵌入美军在中东的作战体系。Palantir研发的"Maven智能系统"(Maven Smart System)整合了Anthropic公司开发的Claude AI,具备强大的监控数据分析、目标清单生成和打击优先级排序能力。这套系统已被美国战争部用于识别伊朗、伊拉克、叙利亚和也门境内的打击目标。
2025年,美军发动了代号"史诗之怒行动"(Operation Epic Fury)的大规模军事行动,在24小时内对伊朗境内1000个目标实施了打击。这种规模与速度,在以往任何战争中都是难以想象的。而支撑这一切的技术底座,正是Palantir的AI平台。
然而,在这1000个被打击的目标中,大量是平民设施——学校、医疗机构、住宅区。这一事实,再次印证了AI目标生成系统在区分军事目标与平民设施方面的严重缺陷:算法可以在几毫秒内完成目标筛选,却无法真正理解一座建筑背后的人道主义意涵。
值得注意的是,Palantir的AI平台据报道托管在**亚马逊云科技(AWS)**的服务器上。伊朗随后对位于阿联酋和巴林的AWS数据中心发动了报复性打击,并声称此举旨在"查明这些中心在支持敌人军事和情报活动中的作用"。这一事件,将商业云服务提供商直接卷入了军事对抗的漩涡,也迫使人们思考:当科技公司的基础设施为军事打击提供支撑时,它们是否已在事实上成为冲突的参与方?
五、科技巨头的共谋:从谷歌到Anthropic
美以两国AI军事化的背后,是一个庞大而复杂的商业供应商网络。这张网络将硅谷的科技巨头与战场上的杀戮行为紧密相连。
"光环项目"(Project Nimbus)是这张网络中最具代表性的案例。这是以色列政府分别与亚马逊和谷歌签署的价值12亿美元的云服务合同,要求以色列国有军工企业——以色列航空航天工业公司(IAI)和拉斐尔国防系统公司(Rafael)——使用这两家公司提供的云基础设施。
2024年,谷歌与以色列国防部的一份合同草案外泄,其中显示以色列国防部已拥有访问谷歌云基础设施的专属"落地扩展区",并计划为特定军事单位创建独立的落地扩展区。与此同时,以色列与Palantir于2024年签署了战略合作伙伴关系,明确目的是"利用Palantir的先进技术支持战争相关任务"。
更令人震惊的是,调查记者在审阅"光环项目"合同文本时,发现了若干高度敏感的条款:
免责条款:合同中包含限制亚马逊和谷歌约束以色列当局使用其技术的条款,据报道甚至明确禁止两家公司在以色列违反服务条款时暂停其访问权限。
眨眼机制:合同据称包含设立秘密信号机制的条款,一旦有第三国要求亚马逊或谷歌移交以色列数据,两家公司须秘密通知以色列政府。
对此,亚马逊和谷歌均予以否认。但这些指控本身,已足以令人对科技公司与威权军事机器之间的边界问题产生严重质疑。
在修改服务条款方面,OpenAI和谷歌悄然在其用户协议中插入了"国家安全"豁免条款,同时删除了此前禁止客户将AI用于武器和监控目的的承诺。这一举动几乎没有引发公众关注,却意味着这些公司在事实上为自身参与军事合同扫清了内部障碍。
Anthropic公司同样深陷其中。其开发的Claude AI已被整合进Palantir的"Maven智能系统",间接参与了美军在中东的目标识别流程。而Anthropic此前一直以"负责任的AI开发"自居,强调安全与伦理优先。这种言行之间的落差,引发了AI伦理研究界的广泛批评。
六、微软与8200部队:监控数据的法律灰色地带
微软在这一问题上的遭遇,为科技公司参与军事AI的法律风险提供了一个具体案例。
调查报告显示,以色列国防军8200部队曾使用微软的Azure云服务器,托管针对巴勒斯坦人的大规模监控数据——包括截获的通话记录。随后进行的外部调查认定,8200部队的行为违反了微软的服务条款,因为这些数据的收集与存储违反了国际人权法的相关规定。
在舆论压力下,微软最终终止了8200部队的Azure访问权限。然而,大量其他以色列实体仍保留着对微软云服务的访问权限,监控数据的流动并未真正中断。
法律层面的追责已经开始。人权组织爱尔兰公民自由委员会向爱尔兰数据保护委员会提交投诉,要求调查微软代表以色列处理巴勒斯坦人大规模监控数据的行为。一个法律倡导团体则正式通知微软,有"可靠依据"认为该公司通过向以色列提供服务,"在以色列对加沙巴勒斯坦民众犯下的严重罪行中发挥了直接作用",并警告微软面临国际和国内法院层面的民事及刑事责任。
在股东层面,一组微软股东提交提案,要求公司调查其针对以色列使用微软技术的人权尽职调查程序是否有效。该提案最终未获通过,但其本身已标志着科技公司股东对人权问题的关切正在从道德层面向法律层面转化。
七、治理真空:宣言与现实之间的鸿沟
面对AI军事技术的迅速扩散,国际社会并非毫无回应。然而,现有治理框架的软弱无力,与这场技术军备竞赛的凶猛势头相比,形成了令人沮丧的反差。
在法律层面,国际人道法确立了约束武力使用的核心原则:区分原则(严格区分平民与战斗员)、比例原则(禁止造成过度平民伤亡)、必要性原则(限制武力使用范围)以及隐私权保护。这些原则在理论上适用于AI赋能的军事系统,但其有效执行依赖于国家层面的自我约束——而这在现实中往往形同虚设。
在国际规范层面,现有成果主要包括:
联合国大会第79/239号决议:确认AI赋能军事系统受国际人道法和国际人权法管辖,但不具约束力。
《布莱切利宣言》(2023年11月,28国签署):呼吁基于国际协作进行"负责任的AI创新",同样不具约束力。
美国主导的《关于负责任地在军事领域使用人工智能和自主能力的政治宣言》(58国支持):要求AI军事用途符合国际法,由人类进行监督,并减少无意偏见。然而,作为政治宣言而非法律条约,其执行机制几乎为零。
上述工具的共同特征,是缺乏约束力、缺乏执行机制、缺乏对商业实体的直接规制。在现有框架下,谷歌、亚马逊、微软可以一边在公司人权政策中援引《联合国工商企业与人权指导原则》,一边向涉嫌违反国际法的军队提供技术支持,而无需承担任何系统性法律后果。
值得一提的例外,是瑞典的司法实践。瑞典目前正在对两名前能源公司高管进行刑事审判,指控其涉嫌协助和教唆在苏丹发生的战争罪——这一案例表明,在特定司法管辖区内,通过普遍管辖权原则追究商业实体刑事责任并非没有可能。但这样的司法实践目前仍属罕见,远未形成普遍约束。
八、"战斗验证"的军火:从中东到全球
中东局势的恶化,不仅仅是一场地区性的人道主义危机。它正在生产一批经过"实战检验"的AI军事技术,并以此为卖点向全球市场扩散。
以色列的军火出口一贯以"经过战斗验证"作为营销标签。在AI时代,这一逻辑被进一步放大:每一次在加沙或约旦河西岸的技术部署,都在为下一代AI军事产品积累训练数据和实战经验。
地区其他国家的追赶态势同样值得关注:
阿联酋:其国有防务集团EDGE正在收购以色列AI无人机探测公司Thirdeye Systems 30%的股份,并与美国军火商Anduril建立合资企业,共同生产AI增强型无人机。
土耳其:军火商STM和拜卡防务(Baykar Defense)已研发出配备AI图像处理软件的无人机。STM的"卡尔古"(Kargu)无人机据报道曾于2020年在利比亚实战部署,针对哈夫塔尔将军的部队发动自主攻击,被认为是全球首例自主致命无人机实战案例之一。
伊朗:前最高领袖哈梅内伊曾公开呼吁国家"掌握AI",但其具体进展难以获得独立核实。
更令人忧虑的是,这些技术的应用场景正在溢出冲突区边界。面部识别、预测性警务、大规模公共监控——这些在中东战场上打磨成熟的技术,正在被输出至世界各地,在非战争环境下用于管控普通民众。国际人权法侵权行为的全球化,已不再是一种警示,而是正在发生的现实。
结语:算法不会悲悯,但人类必须问责
AI赋能的战争,并不比传统战争更干净、更人道。它只是让杀戮变得更快、更大规模、更难追责。当一个算法在一秒钟内将一个人标记为目标,当一枚导弹在数分钟后摧毁他的家园,当这一切都被包装在"技术进步"的话语之下——我们必须追问:那些设计算法的工程师、那些签署合同的高管、那些提供云服务的科技巨头,是否应当为此承担责任?
中东正在成为AI军事技术的全球试验场。这里发生的一切,将塑造未来战争的形态,也将检验人类社会是否有能力在技术加速时代守住文明的底线。
国际社会需要的,不是更多不具约束力的宣言,而是针对AI军事技术的强制性国际法律框架;不是科技公司自我标榜的"负责任AI"承诺,而是具有真实法律效力的供应链尽职调查义务;不是对战争罪行的选择性沉默,而是对所有参与者——无论是国家、军队还是商业企业——一视同仁的司法追责。
算法没有良知,但人类有。问题是,我们是否愿意使用它。
热门跟贴