人工智能加速军事决策,人还能守住最后一关吗?
导读:人工智能对军事决策的嵌入
人工智能(AI)正迅速嵌入军事决策过程。相较于外界更熟悉的自主武器,另一类同样值得关注的技术正在走向前台:人工智能驱动的决策支持系统。它们能够整合情报、识别目标、评估风险,并将原本需要较长时间完成的作战判断压缩到更短时段。问题也随之出现:当战争中的分析、筛选和建议越来越依赖算法完成,人类是否还真正掌握着最后判断?
AI-DSS如何重塑军事决策与人类道德能动性
(一)军事决策中AI-DSS的类型与用途
AI-DSS能为战略、作战、战术各层级的决策提供支撑。在战略层面,AI可助力兵棋推演、黑箱系统运作和敌方行为预测;在作战层面,可借助计算机视觉和数据融合技术辅助目标选择、附带损害评估和情报整合;在战术层面,AI-DSS能在确保遵守交战规则的前提下,优化目标打击行动。但在应对新的危机场景时,AI-DSS仍会因受到数据匮乏、人为因素和伦理问题的限制。
由于AI-DSS指挥上述三级的应用是连续的,因此基于能力的分类体系有助于对其潜在应用场景进行划分。AI-DSS主要具备三项互不排斥的功能:对数据进行描述与分析;识别模式并进行预测;以及提出行动方案和策略建议。使之成为一种“认知工具”,其设计目的是处理和分析信息,并为人类决策提供支撑。
目前,各国正探索将约翰·博伊德提出的观察—调整—决策—行动(OODA)循环模型融入AI-DSS,以提高快节奏冲突中的决策速度。更快的决策速度会在战术层面带来优势,但在高风险情境下,决策的审慎性可能随之下降,也可能引发伦理问题。多国军方认为,AI能够提升态势感知能力、信号探测能力和目标定位精度,从而减少冲突中的“附带损害”;但经验性证据表明,决策周期加快可能会损害伦理审议的质量,导致平民伤亡。这种决策速度与伦理审慎间的矛盾成为AI-DSS落地应用的根本性挑战。
(二)人类道德主体性弱化的风险
随着AI-DSS在识别大规模数据模式、预测冲突、生成目标清单以及提出行动方案等方面的依赖程度不断加深,人类与机器在战争中的互动方式正被根本性重塑。因此,核心问题在于如何将AI融入军事决策过程,同时又不削弱人类的伦理审议能力。
国际人道法(international humanitarian law, IHL)明确规定,由人类承担确保合法与伦理义务得到遵守的全部责任。支撑这些决策的价值判断与评估,若被转移至机器,便会法律与道德责任变得模糊不清。实践中这种道德判断能动性的转移可能降低使用暴力的门槛。另外,做出如辨别平民单位和避免过度伤害的这类决策需要结合具体情境的伦理推理,即便对于人类指挥者而言也并非易事。因此,在军事决策中维护人类的道德主体性,是坚守伦理责任、捍卫人格尊严的关键。
对AI工具而言,其本身的功能伦理(functional ethics)源自编程与设计;而决定是否以符合伦理的操作使用的操作伦理(operational ethics)则取决于人机互动的方式。近期研究表明,对认知任务的自动化会深刻改变人类的行为方式,并对决策者产生显著的心理影响。AI-DSS会影响用户对世界的认知和对伦理的界定,以及对偏好行动或不行动的选择。
AI-DSS的自动化偏见和拟人化倾向会进一步加剧情境推理缺失和算法不透明等问题。研究表明,即便存在相互矛盾的证据,人类仍会过度依赖AI给出的建议。在高压的军事环境中,这种对AI输出结果的过度信任尤为明显,人类存在对AI生成建议“照单全收”的风险,进而可能导致判断失误和非预期的冲突升级。
另外,人类会本能地对AI进行拟人化解读,将推理、道德、判断等人性特质赋予机器。那些为模仿人类行为而设计的系统会进一步强化这种错误认知,让人们误以为AI可以成为独立的道德决策者。AI被认为越可靠、越具有道德中立性,用户就越有可能全盘接受其建议。
从决策加速到伦理失衡:为何需要新的伦理框架
如前所述,核心挑战在于如何在危机决策中即既发挥AI的计算能力,又能维护人类的道德主体性、明确对指挥者以及借助AI-DSS采取行动者的问责机制。但既有理论对这一问题的回答存在较大的局限性。
(一)穆尔的道德主体层级理论
詹姆斯·穆尔提出道德主体的四层级框架,为理解机器伦理能动性提供了基本分类工具,即区分为伦理影响主体、隐性伦理主体、显性伦理主体和完全伦理主体四类。其中,伦理影响主体指的是本身不具备伦理意识,只有其行为后果可以被伦理评价的系统;隐性伦理主体指的是能够在编程或自身能力下对行为进行伦理判断的系统;显性伦理主体指的则是更进一步的,能够明确表现出某种伦理并根据伦理知识运作的系统;最后的完全伦理主体,则意味着机器能够像人类一样进行伦理推理、为其道德决策提供正当性说明,并作为自主的道德行动者存在。
就目前而言,AI-DSS至多接近隐性伦理主体,部分系统或许朝显性伦理主体迈进,但距离真正意义上的完全伦理主体仍十分遥远,因为机器既缺乏意识、意向性与自由意志,也难以具备人类式的道德理解、反思能力与情感敏感性。随之浮现的核心伦理矛盾是:如果系统越来越深地参与高风险决策,却又不能承担道德责任,当伦理推理的部分环节被委托给机器时,该如何防止人类道德问责的弱化?
(二)自上而下与自下而上的设计路径
Wendell Wallach与Colin Allen将为AI系统植入伦理准则的设计方法分为两类:自上而下(基于规则)的模型和自下而上(基于学习)的模型。自上而下的方法将源自义务论、后果论或美德伦理学的预设伦理规则应用于AI决策指导;自下而上的方法借助机器学习和强化学习,让AI通过实践经验形成伦理行为,而非依赖固定原则。
在实际应用中,大多数AI-DSS采用混合方法,将结构化的伦理准则与自适应学习机制相结合。例如,大语言模型(如ChatGPT)就主要采用自上而下结构,但同时通过识别模式与基于训练数据和人类互动进行调整,引入自下而上的元素。
(三)技术瓶颈
在AI-DSS中实现伦理决策面临着诸多显著的技术挑战,其中最紧迫的问题之一是在实时作战场景中预测和评估行动的后果。尤其是在高压的军事场景中,道德考量必须与作战效能相平衡。一个经典的伦理困境就是军事版的 “电车难题”——AI-DSS需要决定是否授权对高价值目标实施导弹打击,而这一行动将不可避免地导致平民伤亡时,系统该如何抉择。
人类决策者能够凭直觉整合多种伦理考量,而AI则必须依赖预设的权重分配。包括强调平民的生命不可侵犯的义务论原则,计算这次打击能否防止未来的更大伤害的结果论原则以及从德性伦理的角度出发,需要考虑军事荣誉与行为-结果的相称原则。而AI对预设权重的依赖有时无法充分反映情境的道德复杂性。除此以外,AI难以判断在复杂现实情境中哪些伦理因素是相关的,这一“框架问题”(framing problem)进一步加剧了AI伦理的复杂性。最后,获取并维护实时的背景信息也是一项重大的技术挑战,AI无法通过机器学习来了解哪些偏好在伦理上是可接受的。
因此,可扩展性和适应性仍是AI-DSS伦理落地应用面临的重要挑战。伦理规则必须具备足够的普适性以适用于不同场景,同时又要具备足够的灵活性以适应不断变化的战场环境。过于僵化的基于规则的方法,会让AI在军事行动中难以发挥实际作用;而过度依赖学习-启发式规则,则可能削弱伦理决策的明确性和严谨性。在AI决策中融入启发式规则或许能助力应对道德困境,但也可能损害伦理推理的精准度。
(四)哲学理论路径
后果论,尤其是其功利主义形式,主张通过评估决策和行动的结果以实现整体利益的最大化。但由AI驱动的功利主义计算难以充分考虑战争的不可预测性和非预期后果,无法成为伦理决策的稳定基础。
与之相对,义务论依赖固定的道德原则指导决策,要求人们遵守具有普遍性的道德规则。尽管这种方法为伦理决策奠定了坚实的基础,但其僵化性在瞬息万变的作战环境中缺乏实操性,因为这类环境中的决策需要具备情境灵活性。
最后,德性伦理学强调道德品格的塑造和情境适应性判断。不依赖固定规则或结果最大化,而关注在具体情境中形成恰当判断的能力,这使其尤其适用于高度不确定、难以完全规则化的军事AI场景,但也因此更难被直接形式化。
正因如此,任何单一伦理框架都难以充分应对AI-DSS的复杂性,更可行的路径是将义务约束、后果评估与德性判断结合起来,以在军事必要性与伦理监督之间取得平衡。
良善、正当与效用:混合伦理框架及其现实应用
(一)混合伦理框架的路径
这一框架的关键在于使AI-DSS能够以结构化方式支持人类伦理判断。主张通过学习现实中的伦理行为范例,使AI在良善、正当与效用三个维度之间展开推理,其中,良善对应德性伦理,正当对应义务论,效用对应后果论。与传统规则驱动系统不同,这种方法允许AI依据具体情境在不同伦理逻辑之间进行切换,例如在涉及国际人道法时优先考虑义务约束,在比例原则与风险评估中引入后果主义,在道德不确定性较高时借助德性伦理进行判断。
结论:确保人类对人类负责,而非人工智能
AI-DSS的融入,标志着军事危机决策正在发生深刻转变。尽管这类系统通过提升计算速度、模式识别能力和数据整合能力优化了决策过程,但也引入了复杂的社会-技术动态,可能削弱人类的道德能动性和问责机制,并从根本上挑战传统的“由人控制”的决策观念。由此产生的核心问题在于:如何在利用AI效率优势的同时,维持有效的伦理监督,确保人类的道德判断在武力使用的决策中始终处于核心地位。
热门跟贴