2014年春,瑞士日内瓦迎来一场意义深远的国际对话——在《特定常规武器公约》框架下召开的政府专家会议,首次将“完全自主的致命性武器系统”这一议题纳入正式议程。彼时,该概念尚被不少与会者视为带有强烈未来主义色彩的技术假想。
那一年,人工智能尚未渗透进大众日常的衣食住行,普通民众对“机器独立裁定生死”的认知,大多源自银幕上的虚构叙事与文学作品中的哲思推演。
然而,在闭门会议室中,气氛却异常凝重。中方代表团率先发声,明确主张必须构建覆盖全球的监管体系,严防此类系统在脱离人类实时监督的状态下投入真实战场。其立论根基坚实而朴素:当目标识别、战术评估、开火指令全部交由算法闭环完成,人类便实质上退出了决策链条的核心环节。此时,一次代码偏差、一段逻辑漏洞、一场网络劫持,都可能在数秒之内触发不可逆的灾难性后果。
遗憾的是,这一前瞻性倡议未能撬动共识支点。美国、英国、俄罗斯、印度等具备先进军事技术能力的国家,普遍采取观望姿态;部分代表强调需为技术创新预留弹性空间,另一些则直言反对仓促立法,认为现有技术成熟度尚不足以支撑具有强制效力的国际协定。最终,会议未产出任何具备约束力的成果文件。
时光流转十余载,人工智能已实现跨越式跃升:深度神经网络架构持续迭代,GPU算力成本呈指数级下降,通用大模型加速向国防工业场景迁移。从可编队自主飞行的蜂群无人机,到具备复杂地形越障能力的智能战车,再到能依据战场态势动态调整作战策略的仿生机器人平台,一系列高自主性装备相继进入试验与列装阶段,“人机融合”正从理念走向实战化部署。
在此背景下,2014年的那场日内瓦辩论再度浮出水面,引发多国战略界深度复盘。华盛顿内部已有分析指出,当年若更重视中方提出的制度性预警,或可提前布局规则主导权,如今面对技术扩散加速与规范真空加剧的双重压力,部分政策圈层流露出“早应倾听东方声音”的反思情绪。
梳理联合国裁军事务厅及会议纪要公开档案可见,中国在多边外交平台上曾三次系统阐述关于致命性自主武器系统的立场主张。
首度发声即为2014年日内瓦会议,提出构建分阶段、可验证的国际监管机制;2016年与2019年两次后续表态,则进一步聚焦于法律文书的实质性推进——呼吁启动多边谈判进程,就全面禁止或严格限制“无须人类干预即可实施致命打击”的武器系统达成具有条约效力的国际协议。
2021年12月,中方在联合国《特定常规武器公约》第六次审议大会上再次强化立场,明确划出技术应用红线:坚决反对人工智能在军事行动中绕过人类意志直接执行杀伤指令,并将“人类始终保有实质、及时、可操作的控制权”确立为不可动摇的基本原则。
事实上,围绕LAWS(Lethal Autonomous Weapons Systems)的全球磋商已在联合国机制内延续多年,但核心分歧长期悬而未决:如何科学界定“自主性”的技术阈值?当人类仅保留形式化否决权或事后追责权时,是否仍属“有效控制”?是要求操作员全程介入每项战术动作(人在回路中),还是允许其仅监控整体任务进程(人在环上)?技术演进的模糊性与地缘政治博弈的确定性之间,始终存在难以弥合的认知鸿沟。
那么,为何当年主要军事力量普遍回避硬性规制路径?多位长期跟踪军控议程的国际安全学者指出,深层动因在于对战略先发优势的高度敏感。
以美国为例,其在长航时察打一体无人机、自动化防空拦截系统、多源情报融合建模等领域拥有显著代际优势,对任何可能压缩未来技术演进自由度的条款均保持高度警惕。美方政策讨论中反复出现的核心关切是:若在技术拐点前锁定规则框架,或将导致自身在下一轮军事范式变革中陷入被动。
俄罗斯将智能化武器研发列为国家战略优先方向,视其为抵消对手信息优势的关键杠杆;印度近年大幅增加无人系统专项预算,意图在南亚安全格局中构筑非对称威慑能力;英国则倾向于倡导“伦理设计准则”与“使用透明度标准”,主张通过行业自律与出口管制协同治理,而非一刀切式的全球禁令。
当时主流认知普遍建立在一个隐含前提之上:只要最高决策权限牢牢掌握在人类指挥官手中,技术本身就不会构成失控风险。这种对工程可靠性的充分信任,叠加大国间战略互疑与技术竞争焦虑,共同构成了国际规范建设进程缓慢的根本原因。
但人工智能的发展轨迹并未遵循传统军控的线性逻辑——算法泛化能力增强、训练数据集规模激增、边缘计算芯片普及,使得高性能AI模块不再局限于国家级实验室,越来越多中等技术实力国家乃至私营实体均可获取接近一线水平的开发资源。
以往,军用级自主系统依赖封闭式软硬件生态与定制化安全加固方案;如今,大量底层模型源于开源社区贡献,商业云平台提供的AI开发套件亦可被快速适配至军事用途,军民两用技术边界日益模糊,技术扩散的广度与速度远超旧有管控体系的响应能力。
多家权威国际智库发布的评估报告均警示:倘若缺乏统一且具操作性的国际行为准则,低成本小型无人平台一旦搭载高鲁棒性目标识别算法,极可能在局部冲突中大规模涌现。当集群协同调度、毫秒级图像解析、动态路径重规划三项能力深度融合后,单名操作员所能掌控的火力密度与打击精度,将呈现数量级跃升。
网络安全维度的风险同样不容忽视。一旦自主武器系统的传感输入被恶意篡改,或其决策模型遭对抗样本攻击,原本设定的交战规则可能瞬间失效。传统武器误击常源于情报链末端的人为判断失误,而AI驱动系统的错误则可能在纳秒级完成全链路放大,且难以追溯原始诱因。
历史反复印证,重大国际规范往往诞生于危机临界点之后。问题在于,人工智能武器所蕴含的系统性风险一旦显性化,其连锁反应与破坏烈度,或将远超传统战争误判所能承载的阈值。各位读者,您如何看待这一正在逼近的治理挑战?
热门跟贴