五角大楼不断承诺在使用人工智能时会遵守法律,但它的边界究竟在哪里?伊朗战争中,美军对人工智能的使用程度超过以往任何一场冲突。
大量来自卫星、信号情报等渠道的数据,被输入帕兰提尔等承包商开发的软件程序。据多名熟悉美军行动的人士透露,像美国人工智能公司“拟人”开发的“克劳德”这样的人工智能工具,能够以远快于任何人类的速度梳理这些数据,并为指挥官标记出可能打击的目标。
人工智能工具在战争中的普遍使用,引发了外界对其是否正在导致战场失误的质疑。一些国会民主党人已要求五角大楼说明,人工智能是否可能对今年2月美军一次打击负有部分责任。那次打击击中了一所伊朗小学,据伊朗国家媒体报道,至少造成168名儿童死亡。但问题在于,军方使用人工智能究竟有哪些限制?
国防部长皮特·赫格塞思强调,在战争中最终决定杀伤谁的,是五角大楼的人,而不是人工智能代理。赫格塞思上周在参议院军事委员会表示:“我们遵守法律,由人来作出决定。”“人工智能不会作出致命决定。”五角大楼发言人也一再表示,军方对人工智能的使用符合法律。
但除明确规定指挥官要对致命打击目标的决定及其后果负责之外,法律并没有对人工智能在所谓“杀伤链”中可用于哪些环节作出明确限制。多位法律专家告诉美国有线电视新闻网,人工智能帮助指挥官加快作出致命决定的速度,正在引发新的问题:人在这一过程中应当何时介入、又需要多频繁地介入。
限制的缺失,也让围绕战争中人工智能伦理的争论频频公开化。五角大楼正与美国领先的人工智能公司“拟人”陷入一场混乱的法律纠纷。起因是这家公司坚持要求对其技术的使用方式设置某些限制,而赫格塞思则因此称该公司首席执行官是“意识形态疯子”。
曾任参谋长联席会议主席办公室副法律顾问的加里·科恩说:“归根结底,这个故事讲的是,你会选择以多快的速度——或者说你是否承担得起不这么做——拿着剪刀奔跑。我们现在看到的做法是,‘我们要拿着剪刀以最快速度冲刺。’这正是与‘拟人’之争的核心。”
美国空军上校约翰·博伊德提出了“乌达循环”这一说法,即“观察、判断方向、决策、行动”,用来描述战斗中指挥官必须作出决定的一次次循环窗口。围绕人工智能使用的大部分法律框架,都源于既有法律,而这些法律的核心在于:作出这些决定时,究竟由谁负责。
曾任美国特种作战司令部法律顾问的科里·辛普森说,人工智能正“以指数级速度提升”指挥官及其支援人员在战场上完成“乌达循环”的速度。在战争中,谁能最快走完这一循环,谁就占据优势。
斯坦利说:“这是革命性的。过去我们要在大约八九个系统里完成这件事,人得在系统之间把探测结果来回挪动,才能达到我们想要的最终状态,在这个案例里,就是实际完成一条杀伤链。”
技术快速进步意味着,自主武器系统可以被设定为尽量避开平民。但这项技术还没有准备好——而且专家也表示,我们永远不该把这样的问题交给机器——去权衡战争中究竟可以接受多大程度的平民附带伤害这一道德计算。美国面对的潜在对手,对避免平民伤亡的重视程度要低得多。
科恩说,最大的问题“在于,你投入使用的一项能力是否可预测、是否可控”。他这里指的是包括无人机在内、能够在没有人类参与的情况下运行的自主系统。现任美国大学华盛顿法学院兼职教授的科恩表示:“你必须对系统有足够信心,确认它在目标打击时会在法律允许的边界内运行。”
武装冲突法和国际人道法规定,无论使用什么技术杀人,军事指挥官都有责任在可行范围内尽量减少战争中的平民伤亡。指挥官会听取军法官的意见,这些律师被派驻在军方各级指挥体系中。
2023年,随着人工智能在国防工业中的应用不断扩大,五角大楼发布了一项面向军方人员的指令,说明应如何处理这项技术。指令写道:“自主和半自主武器系统在设计上,应允许指挥官和操作人员在使用武力时行使适当程度的人类判断。”
一名五角大楼官员在回应美国有线电视新闻网有关战争中使用人工智能最新法律指导的问题时发表声明称:“国防部在这份2023年指令中坚持认为,在使用自主能力时,人类操作员始终处于回路之中。”“任何人工智能工具被合法使用的责任,都由人类操作员和指挥链承担,而不在软件本身。”
前特种作战司令部法律顾问辛普森说,从采购武器到发射武器,流程每一个阶段对法律专家的需求都只会越来越大。辛普森说:“人工智能在多大程度上改变战争中武器的使用方式,也会在同样大的程度上改变这些武器背后的职业群体,迫使他们以不同方式训练,并以不同方式思考流程。”
退役将军迈克尔·库里拉说,在2000年代后期和2010年代初,美军在阿富汗的行动节奏在一定程度上受限于搜集和分析数据、寻找潜在目标的能力。库里拉上月在范德比尔特大学国家安全研究所表示,在接下来的十五年里,数据分析以及后来的人工智能,使美军能够大幅增加对对手实施打击的次数。
随着数据增多,也需要更多人来审查和批准所有潜在目标,并执行打击任务。库里拉说,人工智能“给你带来决策优势,它能把数以万计、数十万计的数据点,以更有条理的方式呈现给你”。库里拉曾负责监督美军2025年对伊朗的轰炸行动。
一年后,库里拉曾参与打造的、由人工智能支持的“杀伤链”再次在伊朗投入运作。库里拉说:“在美国中央司令部,我们建立了一套系统,使我们每24小时能够动态处理1000多个目标,而且还有能力处理更多。布拉德·库珀如今正在用同一套系统对付伊朗,并且每天都在改进它。”他说这番话时,指的是自己在中央司令部的继任者。
美军在伊朗战争中出现的目标识别失误,包括击中那所小学的空袭,再次引发外界对军方如何使用人工智能的审视。目前尚不清楚,人工智能是否在误炸学校一事中发挥了任何作用。五角大楼正在调查这一事件。科恩说,这样的调查将试图回答一个问题:“依赖这些情报——以及由此延伸出的任何可能被使用的人工智能系统及其输出——究竟是合理还是不合理?”
在某个环节上,很可能有错误信息被提供给了批准这次打击的指挥官。而无论情报是否经过人工智能整理,指挥官或其顾问都必须知道这些信息来自哪里。科恩说:“人工智能的好坏,只取决于它能调取到什么样的数据——这和人类没有区别,人类也只能和自己掌握的数据一样好。”
热门跟贴