你敢信吗?10年前中国就喊着要管“自己决定杀人的机器人”,可当时美英印这些国家压根没当回事——觉得这玩意儿离现实太远,签约束等于捆住自己手脚。结果现在AI炸了,各种自主武器满天飞,当初反对的国家突然急了:“早知道听中国的就好了!” 这事儿得从2014年瑞士日内瓦那场会议说起,那时候AI还没普及到手机里,大家聊“机器自主杀人”,基本都以为是科幻片瞎编的,谁能想到短短十几年就成了现实问题?
2014年春天,日内瓦的特定常规武器公约会议上,中国代表第一个站出来说:“得给‘完全自主的致命武器’立规矩,不能让机器自己决定杀谁!” 说白了就是,武器要是脱离人类控制,算法认错人、系统崩了、被黑客黑了,一瞬间就能搞出没法收拾的事。可那时候会场里没几个人接话,美国、英国、印度这些军事大国要么说“再看看技术发展”,要么直接反对“太早设限会束缚创新”,最后会议啥实质性文件都没出——毕竟那时候AI还只是实验室里的新鲜玩意儿,没人觉得这能变成武器风险。
其实中国后来又提了两次——2016年、2019年,每次都呼吁“禁止或严格限制这类武器”,推动签有法律约束力的国际文件。到2021年12月,中国还在多边场合强调:“不能让AI在军事上被乱用,必须始终有人盯着,不能让机器在没人管的情况下攻击!” 可那几年,这些提议还是没被当回事,为啥?因为这些国家都觉得“只要最终决策在人类指挥官手里,就不会出事”,再加上自己技术领先,怕签了规矩反而被别人追上,丢了战略优势。
但AI这玩意儿发展起来,根本不按常理出牌啊!短短十几年,深度学习突破了,算力从以前的天价降到白菜价,大模型到处都是,军民技术也混在一起了——比如现在商业公司的AI算法,改改就能用到武器上。现在你能看到啥?自主无人机集群,一群小飞机一起飞就能精准打击目标;智能无人战车,不用人开就能在复杂地形跑;还有机器狗,能自己适应环境跟着人走,甚至能携带装备。这些东西早就不是科幻了,已经实实在在摆在各国军队面前。
这下好了,当初反对的国家坐不住了。华盛顿那边甚至有人在私下说“后悔当初没听中国的”——为啥?因为现在风险越来越大了。以前军用自主系统都是大国封闭研发,只有少数国家能搞,现在不一样了:底层技术开源,商业公司的算法框架随便改,军民界限越来越模糊,小国家甚至非国家组织都能摸到边,扩散风险直线上升。比如最近有报告说,中东一些冲突里,已经出现了小型自主无人机,一个人就能控制十几架,火力比以前强太多。
还有个更头疼的问题是网络安全。自主武器要是被黑客入侵,或者数据被污染,识别目标能错得离谱。以前武器误判,可能是人类情报错了,还能有时间反应;现在算法系统的误差,毫秒级就能放大,根本来不及拦。比如要是自主无人机的算法被黑,把平民当成目标,那后果不堪设想——这不是科幻,是现在正在讨论的现实风险。
之前有军控专家分析过,这些国家当年不点头,核心就是战略优势和技术领先。比如美国无人机全球第一,要是签了约束,以后还怎么发展更先进的自主武器?俄罗斯把自主武器当对抗美国高技术优势的手段,印度近年砸了不少钱搞无人系统,想在南亚增强技术能力,英国说“要负责任用,不是全禁”——说白了,都是怕自己的技术优势没了,在未来竞争中吃亏。
但现在的情况是,规则还没定,风险已经冒出来了。多国智库的报告都在说,要是没规矩,小型无人平台加高精度算法,冲突里随便就能部署一堆,一个人能控制的火力比以前多太多了。历史上很多规矩都是风险到眼前才重视,可AI武器的风险一旦真发生,代价比传统武器大多了——毕竟机器不会犹豫,不会反思,错了就是错了,没法挽回。你说,现在这些国家再想回头听中国的提议,还来得及吗?
参考资料:人民日报《致命自主武器系统:国际规范亟待完善》
热门跟贴