当自主识别目标的无人机盘旋在战场上空,全球85个国家聚集在西班牙拉科鲁尼亚,却只有35国愿意在一份关于人工智能军事应用的宣言上签字——中美两大国同时选择置身事外。

打开网易新闻 查看精彩图片

在西班牙拉科鲁尼亚举行的第三届“军事领域负责任使用AI”峰会上,一份试图为人工智能武器制定规则的联合宣言,最终只获得了35个国家的签署,不到与会国家总数的一半。

这份宣言列出了20项原则,包括强调人类仍需对AI武器负责、建立清晰的指挥与控制链,并在符合国家安全前提下分享监督机制。

中国和美国这两个在军事AI领域最具影响力的国家均未签字。据荷兰国防部长鲁本·布雷克尔曼斯分析,各国正陷入典型的 “囚徒困境” :既希望建立负责任限制,避免AI武器失控,又不愿在竞争中自我约束。

打开网易新闻 查看精彩图片

01 峰会僵局

拉科鲁尼亚峰会的冷清结果并非偶然。这场有85国参与的国际会议,最终只有35国签署联合宣言。

签署国多为欧洲国家及加拿大、韩国、乌克兰等,而中美两大技术领先国家均选择不加入。这种局面反映出全球在人工智能军事应用治理上的深刻分歧。

据与会代表透露,这份宣言试图提出20项原则,应对AI技术可能带来的战场误判和事故升级风险。原则包括强调人类对AI武器的最终责任、建立清晰指挥链,以及在符合国家安全前提下分享监督机制。

然而,缺乏主要技术能力国家的参与,使这些原则的实际落地困难重重。

02 规则真空

联合国裁军事务高级代表中满泉在2025年10月的一次对话中指出,国际社会对人工智能的关注正在快速发展。

军事AI已不再是未来概念,而是现实存在。据联合国裁军研究所专家介绍,全球已有近200种AI武器在乌克兰、中东与非洲地区被使用。

联合国秘书长古特雷斯曾警告,人工智能是一把“双刃剑”,既能加强预防努力、预测危机、帮助建设和平,但若没有保障措施,则可能面临武器化、虚假信息和破坏稳定的风险。

随着自主与AI辅助武器系统在各地冲突中的应用日益普及,建立相关规范与监管机制势在必行。联合国已设定2026年为最后期限,要求各国针对AI武器运用制定明确规范。

打开网易新闻 查看精彩图片

03 立场分歧

拉科鲁尼亚峰会上,中美两国的共同拒签揭示了全球在AI军事应用治理上的根本性分歧。

中国立场强调“以人为本”和“智能向善”。根据中国2025年向联合国提交的文件,中国主张各国尤其是大国不应借助人工智能谋求绝对军事优势,损害他国合理安全利益。

中国提出的具体主张包括:坚持慎重负责、坚持以人为本、坚持智能向善、坚持敏捷治理和坚持多边主义。

美国战略则呈现明显的加速态势。2026年1月,美国国防部发布新版人工智能战略,旨在构建“人工智能优先”作战力量。

该战略明确以“加速确立人工智能在美军中的主导地位”为目标,将人工智能视为贯穿作战、情报和管理三大军事核心领域的“系统性基础”。

国际社会立场多元。欧盟国家普遍支持加强AI武器监管;俄罗斯主张各国自行制定规范;印度则持谨慎观望态度。

这种分歧在联合国安理会2025年9月的公开辩论中表现得尤为明显,中国呼吁建立包容性全球治理,而美国则反对集中化的国际控制,警告不要过度监管。

04 治理挑战

人工智能军事应用面临多重治理挑战,从技术特性到国际政治博弈,形成了复杂的治理困境

技术特性挑战:AI系统的自主性、学习能力和算法复杂性给传统武器控制机制带来全新挑战。全球委员会在其报告中提出“负责任设计”方法,将伦理和法律合规纳入整个人工智能生命周期。

规则制定滞后:技术发展速度远超政策框架的应对能力。正如大韩民国常驻代表宋时镇大使所指出的,“技术发展的速度超过了政策框架所能处理的速度”。

国际共识缺失:各国对AI武器监管的立场存在根本分歧。联合国安理会的讨论显示,尽管各方都认同需要负责任治理,但对于具体路径存在明显分歧。

安全困境加剧:各国担心单方面限制AI军事发展会削弱自身安全。荷兰国防部长描述的“囚徒困境”正是这一问题的写照。

打开网易新闻 查看精彩图片

05 路径探索

面对人工智能军事化带来的挑战,国际社会正在探索多种治理路径,从原则设计到机制建设,试图为这一新兴领域制定规则框架。

全球委员会2025年9月发布的报告提出了“设计负责任”的方法,并建议建立长期和包容性的多边对话。该报告明确了几条关键的 “警戒线和红线” ,包括禁止AI自主选择和攻击目标,防止AI融入核决策。

联合国框架下的多边治理被视为重要方向。中国一直主张支持联合国发挥应有作用,推动建立普遍参与、具有广泛共识的治理框架。荷兰王国已提出关于军事领域人工智能的联大后续决议草案,邀请各方就报告提出反馈意见。

国际社会主要治理路径:

· 技术透明度机制:建立AI武器注册和信息共享系统,增强互信。

· 风险分类管理:根据AI系统自主程度和杀伤力,实施分级管控。

· “人类控制”操作化:明确人类在攻击决策中的具体角色和介入点。

· 多利益攸关方对话:汇聚政府、技术界、民间社会的多元视角。

· 建立国际监督机构:类似化学武器公约组织,专门监督AI武器。

特别值得关注的是核武器与人工智能的融合问题。中满泉强调,那些负责AI政策的人和负责核武器相关政策的人都必须认识到两者之间联系的内在风险。

06 未来抉择

人工智能军事化的治理困境不仅反映了技术发展的挑战,更揭示了国际社会在科技时代的安全观念冲突。面对这一困境,人类实际上面临着根本性的抉择:

选择一:技术竞赛优先。继续当前的道路,各国竞相发展军事AI能力,可能导致无法控制的军备竞赛。美国“创世纪计划”等大规模AI发展项目已经启动,其他国家可能被迫跟进。

选择二:有约束力的国际规则。建立类似《禁止化学武器公约》的机制,对AI武器进行严格限制和监督。联合国秘书长古特雷斯已呼吁到2026年禁止没有人类控制的致命性自主武器。

选择三:建立信任措施。通过渐进方式,先就透明度、风险降低措施等技术性问题达成共识,逐步建立互信。部分专家认为这是更现实的路径。

无论选择哪条路径,核心问题始终是如何确保“人类最终责任”不是空洞原则,而是可操作、可验证、可执行的具体机制。

随着美军发布“人工智能加速战略”,试图构建“人工智能优先”作战力量;中国则在联合国推动“以人为本的军事人工智能”理念。

峰会结束的第二天,自主无人机仍在乌克兰上空盘旋,AI目标识别系统在中东的军事行动中继续运行。拉科鲁尼亚的会议桌上,那份只有35国签署的宣言静静地放在那里,而全球已有近200种AI武器在实战中被使用。

联合国秘书长古特雷斯警告的2026年最后期限正在迫近,而人类似乎仍在为谁该先放下武器而争论不休。

金思宇:(中国智库高级研究员、秦安战略智库核心成员)