在近期的中东冲突中,一个“新角色”进入了战场——人工智能。美国军方在对伊朗实施打击时,大量使用人工智能系统来筛选和确定目标。不过,多家媒体指出,正是这一系统的判断错误,可能导致了一起严重的误炸事件:伊朗南部城市米纳卜的一所小学被击中,造成大量平民伤亡,其中包括不少儿童。
据美国媒体报道,在此次军事行动中,五角大楼使用了一套名为Maven Smart System的数字化作战平台。这套系统由Palantir Technologies开发,核心算法基于Claude人工智能模型。
简单来说,这套系统的工作方式是:先通过数据分析锁定潜在目标,再按照“重要程度”进行排序,最后把这些信息交给指挥部门决策。美国媒体称,借助这套系统,美军在行动中一共标定了大约1000个打击目标。
不仅如此,这套系统还能在打击完成后对战果进行评估。美军方面甚至表示,人工智能的加入明显提升了作战节奏。中央司令部发言人蒂莫西·霍金斯说,人工智能的决策速度确实比人类更快,但它只是辅助工具,并不会完全取代人类指挥官。
一些分析人士还指出,在人工智能的帮助下,美军的打击节奏甚至达到了2003年对伊拉克震慑与敬畏行动时的两倍。
不过,这套系统的表现也引发了不小的争议。
据《纽约时报》报道,伊朗米纳卜一所小学遭到精确打击,很可能是目标识别错误造成的。当时,美军正在攻击附近一处属于伊斯兰革命卫队的海军基地,两次打击几乎在同一时间发生。
卫星图像分析专家、前五角大楼平民伤亡顾问韦斯·布莱恩特的分析认为,这次袭击并不是导弹偏离轨道,而是“精准打错了目标”。原因可能在于,这栋建筑早年曾属于革命卫队基地的一部分,但从2016年的卫星图像来看,它已经是一栋独立的学校建筑。
这起事件也把人工智能背后的公司推到了风口浪尖。开发Claude模型的人工智能公司Anthropic最近刚刚与美国政府发生冲突。白宫已经认定该公司存在国家安全风险,并禁止联邦机构——包括五角大楼——继续使用其技术。
双方矛盾的核心在于:五角大楼要求人工智能公司取消一些使用限制,让系统能够用于所有“合法用途”,包括情报收集。但Anthropic方面拒绝了这一要求。
俄罗斯美国问题专家马列克·杜达科夫认为,这让五角大楼陷入了一个相当尴尬的局面。因为在人工智能军事应用领域,Anthropic几乎处于垄断地位,短期内也很难找到真正的替代者。甚至连Palantir的软件,其核心算法也依赖Anthropic的技术。
杜达科夫认为,这家公司很可能是在提前“撇清责任”。一旦未来战场上再出现类似误炸事件,他们可以直接表示:合作已经被华盛顿中断,因此公司无法再对相关问题负责。
不过,他也指出,事情并没有那么简单。即使双方关系紧张,军方目前使用的系统至少还会继续运行半年时间。因此,一旦再出现问题,责任很可能会在政府和技术公司之间来回“甩锅”。
更复杂的是,美国国内政治也可能介入。如果未来美国众议院的控制权发生变化,相关事件甚至可能被纳入政治调查或听证程序。
与此同时,一些军事专家也提醒,外界其实并不清楚美国军方内部的决策流程。俄罗斯军事分析人士阿列克谢·安皮洛戈夫表示,更现实的情况可能是:人工智能只负责分析数据并提出建议,最终是否实施打击,仍然由人类指挥官决定。
他指出,人工智能在民用领域都经常出现错误,在战场这种复杂环境中,问题只会更多。信息噪声、电子干扰、天气变化等因素都会影响系统判断,大幅提高误判风险。
因此,在他看来,如果误炸事件确实发生,责任最终仍然应该由批准行动的指挥官承担,而不是简单地归咎于程序或算法。
“其实这种情况并不新鲜。”他说,“过去人们经常听到‘智能导弹偏离航线’的说法。现在只是换成了一个新的理由——人工智能。”
热门跟贴