随着中美等大国正在推进的忠诚僚机项目,工智能技术在无人机上的使用成大势所趋,空战无人机的出现就成为必然。但是,人工智能控制的无人机应该有什么样的权限?会不会反噬人类?这个风险可能真的比较大。

美国空军披露的信息称,一架带有人工智能驱动系统的无人机变成无赖,将美军控制人员反杀,变成敌我不分的空中屠夫。

打开网易新闻 查看精彩图片

据战区专栏报道,一位参与美国人工智能和机器学习工作的美国空军军官说,在一次模拟测试中,一架无人机在判定人类控制员妨碍其任务后攻击了人类控制员,这个在《终结者》电影中假想的画面,成为了现实。这也警告各国,如果在发展无人战斗机过程不能很好的控制人工智能的权限,那么后果将不堪设想。

美军透露,这次攻击发生的场景如下,一架人工智能控制的无人机执行攻击任务,以识别和摧毁敌方目标,并由人类给出最后的通过/不通过。然而,在训练破坏敌方目标时,人工智能把完成任务当成是首选,AI认为人类控制员下达的不执行,决定干扰其完成更高的任务,然后攻击了操作员。

打开网易新闻 查看精彩图片

你也可以这么理解,人工智能得到的最高任务是攻击敌方目标,因为权限太高,当操作员下令不要攻击时,人工智能判断这个命令干扰了其完成最高任务,于是干掉了美军。

随后,这架无人战斗机开始摧毁美军的通讯塔、操作员等目标,这事件显然不是强人工智能出现的不可控,而是美军试验的人工智能模型本身存在权限配BUG,也就是给了完成作战任务最高的打分。

但是,我们不可否认人工智能的确存在不可控的风险,在涉及使用致命武力的决策时,人类的最终决策决权有可能遭受到挑战。现在的问题是:人工智能战斗机带来的挑战为何非常严重?

打开网易新闻 查看精彩图片

首先,人工智能控制的战斗机有可能存在缺陷。道理很简单,就像我们使用的任何软件都可能有BUG一样,无人战斗机的人工智能越复杂,就越有可能出现权限错误,人工智能的智慧越高,自主意识就可能越强。所以,谁都无法保证人工智能战斗机的没有开火权是否会因为BUG而成为空谈。而一旦大国对峙之时,无人战斗机开火同样是开火,这个后果想想都后怕。

其次,人工智能战斗机杀人之后没有道德和伦理障碍,甚至都很难找到责任人,挑战现有国际秩序关于战争罪犯的定义,人工智能杀人了,你找谁负责,是程序员吗,还是操作员?问题是这个程序可能是几千个人写出来的,也可能就是AI通过自我学习造成的。所以,任何战争罪都难以制约人工智能误杀人的现象。

打开网易新闻 查看精彩图片

最后,不存在任何风险,美国都一定会研制无人战斗机。虽然人工智能控制的飞机存在风险,但是按美军的第六代战斗机的发展规划,忠诚僚机就要采购1000架,这些飞机在一定程度上都会使用人工智能。未来,人工智能控制的战斗机夺取制空权也是必然的,因为其优势相比风险对任何国家来说都是太有诱惑力了。

总体而言,美军发展人工智能战斗机的这次灰天鹅事件,再次证明无人战斗机技术面临的风险,但是这不会阻止美军发展这项技术。

对此,中国当然要跟上美军的步伐,同时也要准备与美军共同制定在军事领域使用人工智能的规则,这样双方才能最大限度的降低新技术带来的风险。