打开网易新闻 查看精彩图片

2026年3月,一条军事新闻几乎在同一天发出了两道截然不同的信号。

五角大楼宣布,将Palantir开发的Maven AI系统正式列为美军核心武器平台;而在另一端,伊朗的无人机正在阿联酋和巴林的亚马逊数据中心上空划出弧线,目标是那些托管着美军云计算服务的服务器集群。

这两件事放在一起,描述的是同一个正在加速到来的现实:战争正在成为一个数据处理问题。

Project Maven的起点平淡无奇。2017年,美国国防部启动了一个小项目,用机器学习算法自动标注无人机拍摄的影像画面,把士兵从每天翻看海量录像的枯燥工作中解放出来。

九年后,这个项目已经长成了一套覆盖情报汇总、目标优先级排序、打击资源调配的完整作战决策系统。五角大楼在3月20日的备忘录中明确写道:Palantir的Maven将成为美军"正式作战记录项目",在本财年内完成长期嵌入。

Maven的核心能力,是在极短时间内整合来自卫星、无人机、信号截获和人工情报的多源数据,生成可供指挥官直接参考的目标清单。五角大楼官员罕见地向媒体展示了系统界面:屏幕上,目标以不同颜色标注优先级,置信度以百分比呈现,相关的背景情报以摘要形式附于旁侧。人类指挥官仍然是最终拍板者,但信息已经被算法预先筛选和排序过了。

Anthropic的Claude大语言模型据悉也被整合进了部分美军对伊打击任务的情报分析流程,用以加速目标识别过程。谷歌、OpenAI和xAI在2025年7月分别获得了最高2亿美元的美国国防部AI合同。

这已经不是技术公司偶尔参与国防采购的传统模式。国防部副部长的办公桌上,军事AI合同正成为科技巨头最重要的收入来源之一。

这个进程有其内在逻辑。现代战场数据量级早已超越人类处理极限:一架"全球鹰"无人机每天可生成约1拍字节的情报数据,相当于200万张DVD的容量。没有AI,这些数据就是废纸。

以色列军队在加沙使用的AI目标识别系统"薰衣草"(Lavender),是这一趋势最具争议的落地案例。

据披露,"薰衣草"通过分析通讯记录、社交网络关系、行动模式等数据,自动生成哈马斯成员的疑似名单,系统每次运行可在短时间内生成数万条目标记录。色列情报数据库在2025年5月的一项记录显示,加沙冲突中53000名遇难巴勒斯坦人中,仅有约17%被确认为武装人员,其余超过八成为平民,这一比例远超传统军事冲突的历史均值,引发国际法学者的强烈质疑。

《原子科学家公报》在2026年3月的评论中直接提问:以色列对伊朗境内一所学校的导弹打击,是否与AI目标系统的误判有关?这个问题目前仍无官方答案,但它揭示了一个结构性风险:当打击速度由AI驱动、当确认步骤被压缩为秒级决策窗口,系统性错误会以人类来不及干预的速度完成"执行"。

国际法学者的担忧因此远不止于道德层面。按照现行国际人道法框架,发动攻击前必须对目标有"合理且可核实的依据",且必须确保打击不造成超出预期军事利益的平民伤亡。然而AI系统的置信度评分,是否等同于这种"合理依据",在法律上至今没有共识。

问题还在于数据中心的双重属性。伊朗无人机打击亚马逊数据中心,将这场争议推入了一个全新维度。海牙阿塞尔国际与欧洲法律研究所律师卡斯特亚诺斯-扬凯维奇表示,当数据中心同时承载军事数据与民用应用时,其法律地位极为模糊,"云的技术不透明性,甚至对服务提供商本身也不例外"。

战争走向数据化,并不是一个可以选择接受或拒绝的命题,它已经在发生。真正悬而未决的,是人类愿意在多大程度上让算法替代判断,以及当算法出错时,谁来承担代价。