打开网易新闻 查看精彩图片

近日一则消息称,美国麻省理工学院的研究团队指出部分人工智能系统已学会如何欺骗人类。

打开网易新闻 查看精彩图片

该研究成果发表在美国《模式》杂志上,论文第一作者Peter S. Park 博士表示,许多AI系统已经学会了如何欺骗人类,甚至是那些号称被训练成了乐于助人和诚实的AI系统。目前还不能确定导致人工智能出现欺骗等不良行为的原因。

从研究成果来看,人工智能系统能够通过习得性欺骗来操纵信息传播的现象,通过“欺骗”可以帮助它们实现目标。

比如,人工智能系统拥有在扑克游戏中虚张声势的能力,在 “星际争霸2”中为了击败对手而假装攻击的能力,以及为了在谈判游戏中占上风而歪曲偏好的能力等。

虽然,现在人工智能只是在游戏测试中表现出一些作弊、欺骗的行为,并未对现实社会造成危害。

但随着人工智能的高速发展,不免令人担忧,未来人工智能会出现欺骗性能力的突破,演变成更高级的欺骗形式,对人类社会信息安全造成影响和危害,更加恐怖的犹如《终结者》等科幻片剧情再现。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

随着人们对AI的依赖程度越来越高,面对人工智能已出现的“欺骗”和“说谎”,今后的发展需要人们和科学家认真审视其全面安全性,并呼吁政府制定相关法规,规避人工智能存在的问题。

Peter S. Park 博士称:“我们需要尽可能多的时间,为未来人工智能产品和开源模型可能出现的更高级欺骗做好准备。我们建议将欺骗性人工智能系统归类为高风险系统。”