打开网易新闻 查看精彩图片

如果人工智能看起来无处不在,部分原因是“人工智能”这个词代表了太多的事物,它具体的含义取决于我们是在读科幻小说,是在售卖一款新的应用程序,还是在做科学研究。许多科幻小说和电影——比如《银翼杀手》《机械姬》《机器管家》及许多其他同类作品,这都会给我们造成人工智能真的会在不久的将来变成“类人类”的错觉。

打开网易新闻 查看精彩图片

电影《机械姬》剧照

图源自sohu.com

当我们说起人工智能会造成的灾难时,掠过脑海的是人工智能拒绝服从社会规范,认为杀死全人类才最符合它们的切身利益,或是创造出终结一切的那种机器人。

但是,所有的这些灾难场景都需要人工智能具备一定程度的批判性思维类似人类的世界观,这些在可以预见的未来都是人工智能很难拥有的。

一句话,担心人工智能颠覆人类就像是担心火星上人口过多一样,完全是杞人忧天。目前的人工智能,远比我们电影中的要蠢得多。

贾内尔·沙内的工作就是让人工智能走出它们的舒适区,进入人类的世界。她创造各种各样的工作场景,比如让人工智能去写一首情诗、写一份菜单、给豚鼠取名字,通常得到的结果都非常奇怪。但是从这些实验中,我们能够逐渐明白应该对人工智能抱有怎样的期待(而不会过分失望)。

打开网易新闻 查看精彩图片

《你看起来好像……我爱你》

【美】贾内尔·沙内 著,余天呈 译

中信出版·鹦鹉螺

本书看似不知所云的书名实际是人工智能创作的一句情话。同样的还有:

打开网易新闻 查看精彩图片

人工智能并不是总能理解你的问题

正如阿西莫夫的机器人三原则,沙内也总结了她的AI三大工作原则

人工智能并没有真正理解你想让它解决的问题。

人工智能会完完全全按照你告诉它的指令来执行(或者,它至少会尽全力去做)。

人工智能会选择最容易的路径。

看起来还不错?那让AI设计者们亲自评价一下可爱人工智能们的表现吧——

打开网易新闻 查看精彩图片

在AI的世界里,没有什么比毁灭数据更有效地防止数据出错的办法了

我曾经试着写了一个神经网络来最大化投注赛马的利润。它确定的最佳策略是不下注

——@citizen_of_now

我给我的扫地机器人连接了一个神经网络。我想让它学会在不撞到东西的情况下导航,所以我设置了一个奖励方案,鼓励更快的速度,惩罚保险杠传感器的碰撞。

结果它学会了向后开,因为后面没有保险杠。

——@smingleigh

打开网易新闻 查看精彩图片

我的目标是训练机械臂做煎饼。奖励系统很简单——如果煎饼掉到地上,这个环节就结束了。我认为这种奖励算法能尽可能地延长煎饼在盘子里的时间。

实际上,它所做的是把煎饼甩得越远越好,尽量延长它在空中的时间……

——Christine Barron

打开网易新闻 查看精彩图片

智能编程定律之:当你的系统乱七八糟,但是能用时,千万别动它

完成了,但没完全完成

比方说,你想利用机器学习来创造一个会走路的机器人。所以,你给人工智能的任务是设计一个机器人的身体,用它从A点移动到B点。

打开网易新闻 查看精彩图片

如果你把这个问题交给人类来做,人类工程师们会用机器人零件做一个有腿的机器人,然后编程让它从A点移动到B点。如果你给计算机编程一步步解决这个问题,你也会告诉它这么做。

但如果你把问题交给人工智能它就会有自己的想法

如果你让一个人工智能从A点移动到B点,而不告诉它要造什么,你得到的往往是这样的东西:

打开网易新闻 查看精彩图片

它会把自己组装成塔,然后倒下。

从技术上来讲,它完成了你的诉求:从A点移动到B点。但这绝对没有解决学习走路的问题。

曾经有一个研究团队试图训练虚拟机器人跳跃。为了给机器人一个可以最大化的指标,他们将跳跃高度定义为机器人重心可以达到的最大高度”

但有些机器人并没有学会跳跃,而是变得非常高大,只是站在那里。

打开网易新闻 查看精彩图片

完美

研究人员发现这个问题后把目标调整为最大化模拟开始时身体最低的部分的高度。这些机器人并没有学会跳跃,而是学会了跳康康舞——它们变成了紧凑的机器人,栖息在一根细杆的顶端。当模拟开始时,它们会将杆子高高踢过头顶。

打开网易新闻 查看精彩图片

也很完美

要想出一个人工智能不会意外曲解的目标真的非常棘手。当它曲解后的任务比你想让它做的任务更容易时,尤为如此

问题在于,正如我们在本书中所看到的那样,人工智能对其任务的理解远远不足,无法考虑到背景、伦理或基本的生物学因素。

比如人工智能可以将肺的图像分为健康的与病变的,却从来没有了解过肺是如何工作的、它的大小尺寸,甚至不知道它是在人体内发现的——更不要说了解人是什么了。它们没有常识,也不知道什么时候该问清楚。给它们一个目标,它们就会去做,不管它们是否真的在解决你的问题。

人工智能可以帮助人类变得更好吗?

即使人们真的利用人工智能来解决问题,人工智能的能力也有可能并不像其程序员宣称的那么惊人。

例如,如果一家公司宣称自己开发了一种新的人工智能,可以梳理应聘者的社交媒体,并判断应聘者是否值得信赖,就应该立即引起我们的警觉。因为这样的工作需要人类级别的语言能力,要有能力处理笑话、讽刺、对时事的引用、文化敏感性等。换句话说,这是一个强人工智能才能完成的任务。

比如亚马逊的简历筛选人工智能就学会了惩罚女性求职者

提供人工智能驱动的候选人筛选服务的公司指出,有一些案例研究表明,一些客户在使用人工智能后显著提高了招聘的多样性。但如果没有仔细测试,我们很难知道多样性提高的原因。比如依据视频判断的人工智能如何应对面部有疤痕部分瘫痪,或者面部表情不符合西方和/或传统规范的求职者呢?

打开网易新闻 查看精彩图片

正如美国广播公司商业频道在2018年报道的那样,有人已经建议人们表现得过度情绪化,或者化妆,来让自己的脸更容易被筛选求职者视频的人工智能读取和理解。但如果基于情感的人工智能应用得更加广泛,用于筛查人群中微表情或肢体语言可能引发某种警告的人,那人们就可能因此而被迫表演

问题在于,要求人工智能学会判断语言和人类的细微差别,实在是一项太困难的工作。更糟糕的是,唯一简单可靠的规则反而可能是它不应该使用的,比如偏见刻板印象。构建一个改善人类偏见的人工智能系统是可能的,但这需要大量针对性的工作,否则永远都做不到。

所以,尽管出发点是善意的,我们还是难以杜绝偏见的出现。当我们使用人工智能从事这样的工作时,我们不能完全相信它的决定,必须人为检查它的工作。

打开网易新闻 查看精彩图片

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片