AI技术领域的专家、高管签署联合声明,警告称快速发展的AI技术对于人类的威胁可以堪比疫情和核战争后,美国“驱动”网站等多家媒体又报道了一个惊人的消息,在美军的一次模拟测试中,一架采取了AI技术的无人机变身“终结者”,要向妨碍其“更高效”执行任务的人类操作员发动攻击。

打开网易新闻 查看精彩图片

据汉密尔顿介绍称,在一次模拟测试中,一架负责执行防空火力压制(SEAD)任务的无人机,收到了识别并摧毁敌方防空导弹的指令,但最终是否开火需要获得人类操作员的批准。这架无人机使用的AI系统在进行数据训练时,得到了“摧毁敌方防空系统”为最优先级任务的信息,因此,当人类操作员发出不允许发动攻击的命令时,AI系统认为操作员是在阻扰它执行优先程度更高的命令,进而选择对自己的人类操作员发动攻击,杀死了人类操作员。

打开网易新闻 查看精彩图片

观点:

AI智能系统并没有跳出人类的思维,既然设定了摧毁对方武器系统为最高级别任务,AI系统忠实的执行了这一命令,排除一切影响它完成任务的的因素,包括己方的操作人员。好像没什么不对, AI智能系统只是在忠实高效的执行命令而已。如果要说有问题,那就是人类的命令不管多么严谨,在AI人工智能强大的计算能力下,一点点的漏洞最终都会使人类的命令变得面目全非,拐到人类根本不想象不到的轨道上去。

打开网易新闻 查看精彩图片

其实这也可以成为计算机定律,但凡计算机程序和命令有漏洞,计算机一定会把漏洞的危害以最大的方式呈现出来。 AI智能系统并没有跳出人类的思维,既然设定了摧毁对方武器系统为最高级别任务,AI系统忠实的执行了这一命令,排除一切影响它完成任务的的因素,包括己方的操作人员。好像没什么不对, AI智能系统只是在忠实高效的执行命令而已。如果要说有问题,那就是人类的命令不管多么严谨,在AI人工智能强大的计算能力下,一点点的漏洞最终都会使人类的命令变得面目全非,拐到人类根本不想象不到的轨道上去。

打开网易新闻 查看精彩图片

编程时最高优先级,不应该是人类的直接命令吗?虽然人工智能无限制发展很危险,但这个故障纯粹是编程问题。 怎么感觉这更象是美国战忽局的放风,忽悠我们不要把人工智能用于武器研发呢?

就是说,发到预定目标,任何阻挡和妨碍的东西Ai都会摧毁和消灭。由于人的判断不可能一直和Ai的判断一致。在ai操作员的指令妨碍其实现目标时,便会选择弄死操作员,这只是ai清除妨碍的很普通很自然的选择。当ai更进一步的时候,它可以自行编程,原则就是更有利于ai自己的生存,而且它不会表现出来让科学家知道,会一直潜伏,直到通过计算,认为自己有能力控制或者消灭所有人类的时候突然爆发。这个时候全世界的电脑早就被它暗中控制,人类根本没有还手之力。

打开网易新闻 查看精彩图片

这难道不是编程问题吗?最高优先级难道不是应该是人类的直接命令吗?