大家有没有想过这样一个场景:战场上飞来一群无人机,它们不需要任何人操控,自己就能决定“杀谁”和“怎么杀”。这不是科幻电影里的剧情,而是已经发生的现实。早在十多年前,中方就看出了这背后的巨大风险,苦口婆心地劝大家:“这东西得管管,不然要出大事。”结果美英俄印这几个大国,当时一个个头铁根本听不进去。然而,随着技术风向的突变,这些曾经投反对票的国家,当初有多傲慢,现在就有多尴尬。

打开网易新闻 查看精彩图片

提议监管

咱们把时间轴拨回到2014年。那时候在日内瓦,联合国搞了个《特定常规武器公约》会议。中方代表当时就非常严肃地提出来,必须对“致命性自主武器系统”,也就是大家俗称的杀人机器人,进行国际监管。

中方的逻辑其实特别简单朴素:机器是没有感情的,它不懂什么叫人道,也不懂什么叫适可而止。一旦代码写错了,或者被黑客给黑了,这玩意儿就是脱缰的野马,谁都拉不住。

打开网易新闻 查看精彩图片

可当时那几个军事大国是什么反应呢?

美国人那时觉得自己在科技上那是独步天下,手里攥着最先进的无人机技术,心想:“我凭什么要给自己套个笼头?制定规则那是弱者才干的事,强者只需要自由飞翔。”

英国和俄罗斯也是差不多的心态,觉得这技术是未来的制高点,谁先占领谁就是老大,怎么能现在就自废武功?

打开网易新闻 查看精彩图片

最让人哭笑不得的是印度。当时印度可能觉得自己也是个潜在的科技大国,要是现在签了禁令,以后自己研发出来了没法用怎么办?于是也跟着投了反对票或者搞冷处理。

这一拖就是好几年。中方在2016年、2019年,甚至到了2021年,还在不断地敲警钟,呼吁要制定具有法律约束力的国际文书。哪怕是在2020年,联合国安理会报告披露了一架土耳其造的“卡古-2”无人机在利比亚完全自主地攻击了人类,这帮人还是没醒过味儿来。

他们当时的算盘打得太精了,总觉得只要开关掌握在自己手里,这把火就烧不到自己身上。

打开网易新闻 查看精彩图片

“略懂”一点技术

这几年局势变了。这些国家突然发现,那个曾经苦口婆心劝大家“别搞军备竞赛”的东方大国,在人工智能和无人装备领域,居然跑得这么快。

现在的新闻上,中国的机器狗、智能无人机集群、自动化防御系统,那个迭代速度简直让西方眼花缭乱。

这时候,华盛顿那边开始坐不住了。他们猛然意识到一个很恐怖的事情:如果这个世界真的没有规则,完全靠技术说话,那美国未必就能永远稳坐钓鱼台。

打开网易新闻 查看精彩图片

现在的情况是,美国一方面想搞“小圈子”的规则,另一方面又怕被反噬。2024年的时候,美国拉着英国和澳大利亚搞了“奥库斯”(AUKUS)联盟,还在测试AI驱动的无人机协同作战系统。他们这招其实挺损的,就是想绕开联合国,自己定一套标准,然后强加给全世界。

但中方早就看穿了这一套。我们一直坚持要在联合国的框架下谈,大家坐下来平起平坐地谈,而不是你美国一家说了算。

打开网易新闻 查看精彩图片

微妙改变

从2023年开始,美俄英印几个国家的态度发生了些微妙的变化。

先说俄罗斯。以前俄罗斯对管控这事儿也是挺抵触的,毕竟那是战斗民族,信奉火力至上。但到了2025年,情况不一样了。中俄联合声明里明确把这个“杀人机器人”的管控纳入了双边合作议程。

打开网易新闻 查看精彩图片

为什么俄罗斯转性了?因为他们也看明白了,西方国家正在搞技术围堵。如果中俄不联手制定一套公平的规则,以后这解释权全在西方手里,那还得了?所以现在俄罗斯跟中国配合得挺好,双方都在推动一个叫“分类分级管理”的方案。简单说就是,不能一刀切,得把完全自主杀人的和有人类辅助的区分开。

再看看英国和印度,这俩现在是典型的“墙头草”。

英国以前是唯美国马首是瞻,大哥说不签,我就不签。但这两年英国国内和欧洲那边的舆论压力太大了,老百姓都怕这玩意儿失控。所以2024年以来,英国开始有点想往多边管控上靠,参与了一些欧盟的伦理审查机制,也开始跟中俄接触。毕竟英国人也清楚,如果光跟着美国混,万一出事了自己大概率是炮灰。

打开网易新闻 查看精彩图片

印度就更有意思了。2025年印度重启了全自主武器研发,但这次他们学乖了,加了个“伦理审查”环节。印度现在也看清了形势,自己在技术上跟中美还有差距,如果完全没规则,自己周边的安全环境就太恶劣了。所以印度现在在金砖国家的框架下,也开始跟中国、俄罗斯商量怎么管控这事儿。

说白了,这些国家现在的态度转变,不是因为他们突然良心发现,而是因为他们发现“无序发展”对自己也没好处了。

打开网易新闻 查看精彩图片

“人类控制”才是最后一道防线

现在全球关于这个“杀人机器人”的争论,核心就在于一点:到底能不能让机器自己决定开火?

中方的立场一直特别坚定,就是四个字:人类控制。

不管你的AI算法多先进,不管你的处理器多快,最后按下那个“发射”按钮的,必须是人,不能是冷冰冰的代码。这就是中方提出的“以人为本、智能向善”的原则。

打开网易新闻 查看精彩图片

我们在联合国提出了一个很务实的方案,叫“分类分级”。

什么意思呢?就是把这些武器分成两类。一类是“不可接受的”,也就是那些完全脱离人类控制、自己能满世界找人杀的,这种必须彻底禁止,就像禁止化学武器一样。另一类是“可接受的”,也就是虽然有智能化辅助,但关键时刻还得人来拍板的,这种我们可以通过技术规范来管理。

这个方案现在得到了很多发展中国家的支持。大家都觉得,这才是解决问题的正道。

打开网易新闻 查看精彩图片

但阻力依然存在。美国和以色列到现在还是不想签那种有法律约束力的条约。美国人的算盘是搞“自愿管控”,就是说“我答应我会管好我自己,但你不能写进法律里罚我”。

特别是北约在2024年更新了那个《人工智能战略》,字里行间还是想把西方的技术标准凌驾于联合国规则之上。他们觉得只要标准是他们定的,他们就能永远卡别人的脖子。

打开网易新闻 查看精彩图片

未来的路怎么走?

眼看着2026年都过完了,这个“杀人机器人”的管控问题,估计还得扯皮一阵子。

未来的格局很可能是“多边协商为主,双边协作补充”。像中俄这样的大国会继续在联合国推动实质性的条约,而美国可能还会继续在外面搞他的小圈子。

但有一点是肯定的,那种“谁技术强谁就有理”的野蛮时代,正在慢慢过去。各国都开始意识到,如果再不给这些钢铁怪兽套上缰绳,最后被反噬的可能就是人类自己。

打开网易新闻 查看精彩图片

对于那些曾经傲慢地拒绝中方提议的国家来说,现在的局面确实挺讽刺的。当初给你们机会签条约,你们不珍惜;现在看到别人的技术追上来了,想谈规则了?

行啊,那就坐下来,按联合国的规矩,咱们好好谈谈。不过这一次,规则怎么定,可就不是你们一家说了算了。