张薇薇

随着人工智能技术飞速发展,其军事化应用日益进入大众视野。在以色列空袭加沙和美以对伊朗的打击中,人工智能均得到深度应用。据报道,以色列使用“福音”“薰衣草”等AI系统识别和追踪目标;美军使用Palantir的Maven系统和Anthropic的Claude模型分析情报、规划打击路径。然而,在技术大幅提升战争效率的背后,深刻的伦理危机正在发酵。

任何复杂自动化系统都存在出错概率,且无法降为零。过往数据难以覆盖所有真实战场场景,在复杂多变的战场环境中,深度学习模型极易产生偏差。伊朗小学惨遭炸毁,百余人遇难,就令美军所谓的精准打击彻底沦为谎言。

尽管美军称人工智能仅提供分析和建议,但在人工智能海量、高速的决策循环中,人类力量的局限日益凸显。有报道称,在以色列对加沙的空袭中,虽设有人工核查环节,但因核查量大、人员疲劳,常沦为走过场。随着系统进一步进化,人类失去实质性控制权的可能性也在增大。

但为抢占技术应用先机,美军正积极推动人工智能军事化应用。今年1月,美国防部发布《人工智能加速战略》,将人工智能打造为贯穿作战、情报和管理三大核心领域的系统性基础。

2月,美国防部与Anthropic公司的重大分歧曝光。Anthropic坚持其Claude模型不能被用于大规模监控和没有人类介入的全自主武器系统。但美国防部强硬要求“无限制访问权”,并将Anthropic列为“供应链国家安全风险”以示惩罚。矛盾的实质,是对人工智能军事化应用是否应设“红线”、如何设“红线”的争执。

然而Anthropic的坚持未能阻挡五角大楼的步伐。很快,OpenAI宣布与国防部达成协议,接受“一切合法用途”条款。谷歌和马斯克旗下的人工智能公司xAI也与美国防部签有合同,且未附加公开限制条件。人工智能技术遭滥用的风险正史无前例地升高。

一旦打击效率被置于战争伦理之前,伤亡风险被包装为可接受的概率,失误责任被推给数据和算法,人工智能技术将面临制度化滥用,进而加剧全球安全困境。

首先,技术的高效性会削弱解决冲突的审慎性,可能使武力从“最后手段”变为“首选手段”。人工智能军事化程度高的国家,可能因过度自信而草率发起攻击。

其次,可能引发新的人工智能军备竞赛。技术不透明将导致安全困境升级,各国可能不断追求更优算法、更强算力和更自主的决策链。

此外,技术滥用还可能动摇核威慑体系的稳定。一旦人工智能用于增强己方核打击能力或削弱对方核威慑力,原有战略稳定就会遭到破坏。

中国政府高度重视人工智能军事化应用问题。中国提出《全球人工智能治理倡议》,发布《中国关于规范人工智能军事应用的立场文件》,主张各国尤其是大国应本着慎重负责的态度在军事领域研发和使用人工智能技术。中方主张遵循“以人为本的军事人工智能”理念,通过对话合作就如何规范人工智能军事应用寻求共识,既要引导军事人工智能的正确发展方向,又要防范其毫无约束的发展。我们应该明确技术应用的道德和法律底线,加强国际安全和技术治理合作,坚决反对技术滥用,保护人类安全与福祉。

(作者是中国国际问题研究院世界和平与安全研究所副所长、副研究员)