打开网易新闻 查看精彩图片

美国和以色列军方在打击伊朗的作战行动中,使用人工智能(AI)进行快速筛选和确认攻击目标,这前所未有地提升了情报处理和作战效率,据称美国在战争爆发后的24小时内就攻击了1000个目标。这意味着未来在军事领域运用AI的趋势已势不可挡,但同时也引发人们在安全性和不可控方面的明显担忧。

美军被指在本次打击中主要使用的是由数据分析巨头Palantir开发的Maven智能系统,借助AI分析数据,以识别目标并排序优先级。他们还将Anthropic开发的生成式AI大模型Claude集成到这个系统,用于处理和汇总前线情报并生成目标,共同构成一个针对伊朗行动的实时数据分析平台。

据称这个平台在策划对伊朗的打击行动时,生成了包含上千个选项的潜在目标数据库,并根据战略重要性对目标进行优先级排序。平台还将特定的军事单位和最合适的弹药,与具体打击目标自动匹配。它还能模拟战术场景、评估打击的合法性及协助进行战损评估。

美媒称五角大楼于2017年启动了“Maven计划”,一份备忘录详细阐述了这一计划的理念:创建计算机视觉算法,用于分析无人机视频、检测目标,并将海量数据快速转化为“可操作的情报和洞察力”。但他们的目标还不止于此,美军还在努力将AI直接应用于其“单向攻击无人机”,使其即使在无线通信中断的情况下也能导航、定位目标并执行致命攻击。

打开网易新闻 查看精彩图片

在军事科技领域表现不俗的以色列也使用了AI,美国《华盛顿邮报》在最新报道中透露,以色列在作战中利用新型人工智能平台,提取有关伊朗领导人生活和行踪的线索。根据以色列官员的描述,以色列对某些指挥官的情报非常精准,甚至能够根据目标的移动情况在导弹飞行途中改变方向。

据称以色列在加沙战争中使用了多个AI系统生成打击目标建议,一个名为“福音”的系统负责识别并建议攻击哈马斯人员可能活动的建筑和设施,另一个叫做“薰衣草”的系统则被编程用于识别哈马斯及其他武装组织的疑似成员,以供定点清除。而还有一个被称为“爸爸在哪”的系统通过追踪目标的手机信号来监视其行踪,以便锁定打击窗口。

显然,将AI应用到军事领域的好处不少。有媒体这样描述,它擅长高速处理庞大数据,大幅缩短“杀伤链”(Kill Chain),即把发现目标、人类审批到执行打击的整个决策和规划流程,从过去的几小时或几天,极大地压缩到几分钟甚至几秒钟。这不仅提高效率,也减少人力,把过去可能需要2000名分析师才能完成的工作量缩减至约20人,让人类可专注于更高层级的决策、后勤保障和任务规划上。AI也已部署在用于侦察和打击任务的无人机、处理爆炸物的地面机器人等,由机器来执行危险任务,进而提升士兵的安全。

打开网易新闻 查看精彩图片

这意味着未来AI在军事领域的运用趋势已势不可挡,但同时也引发人们在安全性和不可控方面的明显担忧。例如,五角大楼要求Anthropic签署合同,允许军方“不受限制”地将其技术用于“所有合法用途”,但这家公司坚持合同须列明两个例外情况,即不得对美国公民进行大规模监控,也不得开发完全自主且无人监管的武器。但这遭到白宫的强烈反对,美国总统特朗普指示所有联邦机构立即停止使用Anthropic技术,而战争部长赫格塞思则要求将Anthropic及其产品,列入对国家安全构成威胁的“供应链风险”名单。

不过,在Anthropic对五角大楼提起诉讼后,一名联邦法官暂停了美国军方的决定,这暂时缓解了这家公司与美国政府合作的困境,其对人工智能在战争中的应用也具有重要意义。但这并不能阻止这家公司担心的事情可能发生,五角大楼很快就与其竞争对手OpenAI达成了协议。

打开网易新闻 查看精彩图片

现在人们有必要搞清楚,人工智能在军事领域的大量应用将带来哪些风险。众所周知,AI本质上依赖数据和算法,如果系统受到黑客攻击或者数据篡改,敏感信息可能泄露,甚至被敌人利用来提供虚假情报。此外,使用过AI聊天的人都知道,大模型时常会产生错误,但在紧张的战争环境下,很可能导致指挥官迅速采纳,这就是一些专家提到的“自动化偏见”,即默认AI提供的信息是准确可靠的,最终会打错目标或者波及平民。

举一个不够恰当的例子,伊朗南部小学被袭击造成至少175人死亡,据美国官员及了解初步调查结果的人士透露,因为美军使用国防情报局提供的“过时数据”制定了打击坐标。一些人质疑这是否是美军使用人工智能所导致的,美国在明面上只证实在调查,但并未给出更多信息,最终仍有待进一步澄清。

如果美军果真使用AI生成的错误结果导致了误判,这还会带来另一个问题,即具体责任由谁来承担,到底是AI还是人类?有专业人士认为,人类归根结底还是应对人类的生命负责。即使人类使用工具来帮助了解局势,也须亲自核实这些工具的有效性;如果人类真的必须相互厮杀,那应该由人类自己来执行,而不是把责任推卸给机器。

而随着AI在军事领域深度应用,不少人也开始担忧人类可能失去对战争机器的控制。如以色列国防军前总参谋长科哈维2023年接受采访时曾提出类似观点:“令人担忧的不是机器人会控制我们,而是AI会在我们没有意识到的情况下控制我们的思想并取代我们。”

这意味着各国需要在作战效率和伦理责任之间寻求平衡,必须建立保障措施、法规和故障保护机制,以确保AI的使用是负责任的。很明显,这将是一个巨大挑战!