当杀伤链缩短,道德犹豫的空间也随之缩小。
美以对伊朗的联合军事打击,不仅加剧了本已动荡的地区冲突,更揭示了基于算法的目标选定和数据驱动的情报工作正在如何重塑战争机制。据报道,仅在最初的12小时内,美以军队就对伊朗目标执行了近900次打击,这种作战节奏在以往的冲突中可能需要数天甚至数周才能实现。
除了打击的规模和杀伤力——包括使用隐形轰炸机、巡航导弹和自杀式无人机的数百次任务——最令军事分析家和伦理学家瞩目的是人工智能(AI)在规划、分析乃至潜在执行这些行动中日益增长的作用。批评者警告,这一趋势可能将决策时间压缩到人类判断力被边缘化的程度,从而开启一个被形容为"比思维速度还快"的战争时代。
用军事术语来说,"缩短杀伤链"指的是将目标识别、情报验证、法律许可到武器发射的序列,压缩成一个更为紧凑的作战闭环。这个缩短的间隔引发了一种担忧:人类专家可能最终仅仅沦为算法生成建议的批准者。在一个以速度和自动化为导向的环境中,犹豫、异议或道德约束的空间可能同样在迅速缩小。
AI与杀伤链:发生了什么变化?
能够处理海量数据的AI系统,以人类团队无法比拟的速度,连接着无人机视频馈送、卫星图像和电信拦截等情报源。
据报道,在美以对伊朗的打击中,这些工具被用于生成目标建议,并将以往需要数天或数周的计划周期压缩至数小时甚至数分钟。纽卡斯尔大学政治地理学高级讲师、军事杀伤链专家克雷格·琼斯指出,AI系统现在正以某种程度超越人类认知处理的速度"提出关于打击目标的建议"。他认为,其结果是实现了规模化同步执行:领导人目标打击、导弹压制和基础设施攻击不再是按顺序进行,而是并行开展。
伦敦玛丽女王大学伦理学、技术与社会教授大卫·莱斯利同样在评论中警告,此类系统将规划时间线压缩成一个"非常狭窄的时间段"供人类审查。虽然理论上指挥官仍"在决策回路中",但进行有意义的深思熟虑的窗口已急剧缩小。这种作战节奏的压缩,常被称为"决策压缩",不仅仅是关乎效率。它改变了军事权威的结构本身,缩小了法律顾问、分析员和指挥官在武器发射前质疑各种假设的空间。
AI增强作战的伦理问题
伦理与技术专家警告,随着AI系统在军事规划中承担更多角色,人类监督的性质正在发生根本性改变。一个担忧是"认知卸责",即决策者过于轻易地顺从算法推荐,实际上削弱了人类对战略选择的责任。
当涉及平民伤亡时,这种疏离感尤其令人不安。在最近一次对伊朗南部的打击中,至少150人丧生,其中许多是女学生,联合国称此事件为"严重违反人道主义法"。国际人道主义法是在假定人类在相称性和区分性原则下进行判断的基础上构想的。随着AI系统压缩时间线并快速生成打击选项,这些法律和伦理约束很可能被追求速度的绝对必要性所掩盖。
关于军事化AI的学术研究持续强调,需要建立框架来防止在致命场景中人类能动性的侵蚀,并确保战场效率不会凌驾于对平民伤害和遵守法律的考量之上。
围绕军事AI的伦理张力并非抽象概念。Anthropic公司的Claude模型此前已被整合到美国国家安全工作流程中,与帕兰提尔公司合作,协助情报分析和战争规划。
然而,Anthropic公司明确划定了界限,反对将其系统用于完全自主的武器或国内监控应用。在伊朗打击行动前几天,美国政府表示,根据这些限制,Anthropic将从某些国防系统中逐步淘汰。此后不久,OpenAI与五角大楼就其模型用于军事应用达成了自己的协议。Anthropic的立场预示着这个新战争时代的一个核心矛盾:那些能够以前所未有速度整合情报的相同模型,同样可能被改用于监控或自主致命系统。
人类权威是否能保持核心地位,可能不仅取决于军事学说,也取决于科技公司如何选择界定其参与的限度。令人担忧的是,在旨在模拟冷战式核危机的兵棋推演中,AI模型绝大多数情况下都倾向于升级至核选项,在95%的场景中选择战术核行动,极少选择降级。虽然这些模拟并不意味着在真实冲突中AI会不可避免地选择核升级,但它们揭示了战略推理模型在压力下如何可能默认走向极端结果。
伊朗之外的AI作战应用:加沙、委内瑞拉与全球格局
先进的军事AI用于目标识别和攻击规划已有一段时间。例如,在加沙地带,以色列国防军部署了像"福音"和"拉文德"这样的AI工具,自动筛选海量监控数据,每日生成打击目标清单,供分析员审查和采取行动。
据军事消息源和调查显示,"福音"系统每天能产出数十个目标,速度远超传统人工流程;而"拉文德"则维护着由AI算法标记的疑似战斗人员及相关地点的庞大数据库。
在中东之外,美国也在其他地区试验了AI工具。据多份报道,在2026年初一次抓捕委内瑞拉前总统尼古拉斯·马杜罗的高调行动中,美军使用了Anthropic的Claude模型来支持情报分析和目标选择。自2017年美国国防部启动"梅文计划"等长期项目以来,机器学习已被应用于分析图像并支持从伊拉克、叙利亚到乌克兰等冲突中的目标决策,在乌克兰,AI辅助无人机帮助在复杂的电子战环境中识别和打击目标。
在地缘政治层面,为在军事领域使用AI建立规范的尝试进展不一。美国政策制定者提出了一项"关于负责任地在军事上使用人工智能和自主技术的政治宣言",数十个国家签署支持关于致命性自主武器和人类监督的负责任实践。
然而,包括就像美国这样的军事大国,有时不愿全面接受具有约束力的限制,反映出战略优势与伦理约束之间的优先事项冲突。其他国家也在推进AI赋能武器。在土耳其,"巴伊卡尔·巴伊拉克塔尔·凯曼凯什1型"巡航导弹集成了AI辅助光学制导,用于在恶劣条件下自主识别目标。在印度,像"阿努曼计划"和"特里内特拉计划"等国防研究项目正在探索AI在跨网络整合情报和实现早期威胁评估方面的潜力。
此次伊朗军事行动的特殊之处,不仅在于打击的强度,更在于AI辅助目标选定在规模上的常态化。从自动生成的打击清单到被压缩的法律审查,算法的介入正以前所未有的方式嵌入现代冲突。
如果朋友们喜欢,敬请关注“知新了了”!
热门跟贴