AI崛起之后,会毁灭人类吗?如果会的话,它又会以怎样的方式毁灭人类呢? 今天我们就来讨论一下。

打开网易新闻 查看精彩图片

关于这点,很多人都在担心,因为好莱坞早就预言过,AI都不是什么好东西。不管是终结者里的天网,还是黑客帝国里的矩阵,又或是西部世界里的Host,总之,它们不是要灭亡人类就是要圈养人类,再次再次,也要跟人类平起平坐。这你受得了吗!

打开网易新闻 查看精彩图片

所以在看到过去几个月里,人工智能的突飞猛进之后,很多大咖都急了,表示要是我们再不加限制的开发AI,一个恐怖的将来就一定会在不远处等着我们。这里面喊声最大的一个,大概就要数埃隆马斯克了,看来,他真的很讨厌AI呀。

那么问题就来了,当你很讨厌一样东西,又拿它没办法的时候,该怎么做呢?埃隆马斯克给我们上了很好的一课,那就是——用另一个AI去干掉自己讨厌的这个AI

好吧,所以本质上,他只是不放心别人开发的AI而已。

就在最近,埃隆马斯克正式推出了一家名为xAI的人工智能公司, 虽然目前我们对该公司的雄心壮志了解甚少,但马斯克在Twitter Spaces活动中表示,他希望他的人工智能能够“理解宇宙的真实本质”。

为什么让人工智能理解宇宙的本质那么重要,因为马斯克认为——如果AI理解了宇宙的真实本质,它就会明白,人类其实会比非人类有趣太多了,于是基于这点,它自然就会站在人类的一边,成为一个对人类来说安全的AI了。呃......这个逻辑......通吗?

好吧,希望它通,因为如果不通,人类的未来在AI面前,可能的确会比较黯淡。我最近正好看了一篇文章,标题就叫做《人工智能伤害我们的最危险、最令人意外和最让人讨厌的六种方式》,文章的作者在采访了大量相关领域的专家和从业者后,得出结论——虽然AI可能并不会像好莱坞宇宙中表现的那么邪恶,但是它依然会给我们制造大量的噩梦,其中有六个,已经到了让人夜不能寐的程度,下面,我就来分享一下。

但事先说明,由于作者和他访谈的对象都是国外的,所以其中举的案例也基本都是国外的,可能跟我们的情况会略有不同,大家如果有不同的意见或者补充,正好可以在留言区讨论讨论。下面,噩梦就来了。

打开网易新闻 查看精彩图片

噩梦一,叫做数据分身的诅咒。2011年,美国密歇根州州长批准了一笔资金,让密歇根失业保险局开发一个新的算法,目的是要让该算法能够智能的检测保险欺诈。

保险局与三家不同的软件开发公司合作,于2013年推出了密歇根集成数据自动化系统(MiDAS)。尽管该局从未透露算法从哪里收集数据,但随后的诉讼表明,它可能从雇主提供的失业数据集中收集了不准确的细节。因为在接下来的两年里,MiDAS错误地指控了4万多人欺诈,并通过各种方式迫使他们支付了高额的罚款。

但这还不算最糟糕的,一旦MiDAS在数据库中错误地将成千上万的无辜者标记为骗子,其他使用该数据库进行背景调查的机构就会重复这些错误信息。于是,有些被指控者便无法找到工作,有些则无法再领取失业救济金。而这其中最绝望的一点是,当这些人突然被当成是罪犯来对待时,他们根本就想不明白这是为什么?到底背后发什么什么?直到,有缺陷的算法被曝光之后,他们才用集体诉讼的方式为自己讨回了公道。

好,你以为这就完了吗?不,噩梦还没走,甚至,它这一辈子都走不掉了。伦理组织AI Now的主席梅雷迪斯·惠特克将MiDAS创造出来的与真实人物有偏差的在线版本称为“数据分身”。它们的功能很像被盗用的身份,一旦建立起来,就几乎无法删除。因为我们的很多数据都被重新打包并出售给第三方,所以一个由人工智能创造出来的数据分身可能会从你的保险记录里消失,但又会出现在你的银行记录、学校录取或工作背景调查中。由于许多数据库是集中式的,所以一个数据分身可能会在你的一生中跟随你许多年。

惠特克说:“这些系统正在生成没有人给予它们的虚假个人数据,而它们正变得越来越比真相更真实。这一定会影响我们的生活。”

打开网易新闻 查看精彩图片

接着,是噩梦二,它叫做“万岁,随机鹦鹉”。

鹦鹉学舌我们都知道,要是训练的好,你完全可以跟一只鹦鹉展开看似正常的对话——它可以跟你问好、可以跟你打招呼、甚至,还能跟你对骂几句——尽管,它可能根本就不知道这些语言的含义。

诶,对比一下,GPT之所以厉害,之所以它说的话看起来像是人说的,不就是因为我们用了大量人类的语言去训练它的结果吗。但是,它真的就明白这些语言背后的真实含义吗?不见得。

华盛顿大学社会未来实验室的负责人艾米·张说,她最担心的就是AI胡说八道的倾向。很多通过ChatGPT或是其他类似的,能够写出大段句子甚至整篇文章的AI说出来的东西,咋听起来非常合理,但你仔细一想,就会发现错得是相当离谱。

她举了个例子,在一次科学作家盖瑞·马库斯与ChatGPT的对话中,后者建议到,将瓷器粉加入母乳有好处,因为——瓷器粉可以帮助平衡母乳的营养成分,为婴儿提供生长和发育所需的营养。是不是的相当的荒谬。

研究人员称这种现象为“随机鹦鹉”问题: 当计算机以混乱的方式复制听起来像是人类的短语时,这种问题就会发生。艾米介绍,随机鹦鹉可能会在互联网上散播大量错误信息,从而造成一场堪称核灾难级别的垃圾信息泛滥。AI生成内容的扩散将使得在一片垃圾信息中找到高质量信息变得更加困难。最终,我们必然面临一个完全被随机鹦鹉信息取代了人类生成文字的世界。到那个时候,除了垃圾,还剩什么呢?随机鹦鹉,真的是万岁了。

噩梦三,AI学会了偏见。当我们现在为AI能做的很多事感到兴奋不已,并本能的认为这是一个全新开启的时代时。其实,你要知道,大多数的人工智能实际上是建立在一些能追溯到上个世纪80年代的“破旧系统”之上的。所以可以这么说:AI不是什么新技术,新的,只不过是我们现在拥有的大量数据和计算能力。

这会带来什么问题?这会带来算法通过学习按照旧有标准分类的数据,从而得出偏离了真相的结果。比如AI在警务平台上的使用。 上个世纪90年代,洛杉矶警察使用一个奇怪的缩写词“NHI”来指代涉及黑人和其他少数族裔的事件。NHI到底是什么意思呢?后来通过调查才知道,它是“没有涉及人类 no humans involved”的缩写。

这就相当歧视了,意思就是在洛杉矶警察的眼里黑人和少数族裔都不是人呗。显然,这个缩写很快就被删除。但是,就像我们上面讲到的一样,数据分身是很难被彻底抹掉的。在用可能含有这个缩写的数据去训练AI的过程中,AI也许就会错误的学习到某些人比其他人不那么有价值——等于是把歧视和偏见也学了下来。

这也是多年来人工智能专家一直在警告的,一些警务算法是根据有偏见的数据进行训练的,于是很容易就将黑人与犯罪画上了等号。通常,这些算法会“学习”谁更可能犯罪,这是基于逮捕和监禁的历史数据,而其中黑人美国人由于曾经被不公平地定位为目标,就导致了他们在这些数据中占据了错误的高比例。

随着人脸识别越来越多地被集成到智能监控摄像头中,这个问题将变得更加严重。因为当一个超市试图安装这样的智能摄像头,来将顾客的脸与之前涉嫌偷窃的人匹配,从而警告保安人员时。错误训练的AI很有可能会将乱指无辜,既伤害了顾客的权利,也削弱了商场的信誉,可谓极具危害性。

打开网易新闻 查看精彩图片

噩梦四,AI教我打仗。想象这么一个场景,在未来的战场上,一个军事指挥官正在与恐怖分子作战,硝烟笼罩,他需要同时处理数百个关于发生了什么的相互矛盾的情报,并迅速做出一个可能会造成不同伤亡的决策。那么,他应该怎么做呢?

合理的推测是,依靠AI。

美国国防高级研究计划局(DARPA)已经开始启动一个名为ITM(In The Moment)的项目,旨在设计一个可以帮助做出关于战场伤亡的复杂决策的算法。所以,在可以预见的未来,将会有更多算法会基于历史冲突的数据来帮它做出决策。

但是,这些历史冲突的数据就真的那么可靠吗?如果这个未来的指挥官在欧洲,却使用了基于阿富汗战争的数据所训练出来的AI呢?

你想,在阿富汗作战的方式,它也许并不适合放在欧洲嘛,那么这样的AI所做出的决策就势必产生了偏差。最惨的,你即使知道有这个偏差,也很难去修正,因为它本质上,是个“黑箱”问题。对于构成我们算法基础的神经网络,我们可以看到的只有数据的输入和输出,而并不知道里面到底发生了什么。

比如我们现在在训练AI下棋时就会发生这种情况。AI赢了,是因为它想出了人类在数千年的下棋过程中从未想象过的棋步。可为什么它能这么想?它在想的过程中加入了什么、放弃了什么?这么做会带来其他后果吗?等等这些,我们是既看不到也无法理解,这就带来了很多巨大的风险。

比如,在未来的某个时刻,当作战指挥官问一队由AI控制的无人机下一步该怎么做时,它们可能会制定出一种对指挥官而言毫无意义的策略——轰炸所有戴黄帽子的人。听上去很荒谬吧?但是指挥官不得不相信它,因为它是通过对情报的大量分析后,才得出的这一判断——恐怖分子都在暗中编织黄色的帽子。但是,万一它是犯了一个错,把织毛线帽的无辜大妈标记成了恐怖分子呢?指挥官在做出决定之前是根本不会知道的,而当他知道的时候,一切都已经太晚了。

打开网易新闻 查看精彩图片

噩梦五, 你的大脑植入物不会让你顶嘴。最终,我们一定会邀请算法进入我们的身体。多伦多大学的研究人员已经设计了可以植入到人脑中的增强型AI芯片,帮助罹患帕金森病的患者。当然,我们还有其他的脑植入物,可以帮助瘫痪的人用意念控制鼠标和键盘。

听起来很安全,对吧?但是,等到心电感应、用想一想就能给其他人发送信息的时候,情况就会发生变化了。由于像微软这样的公司会为文本加上预测算法,通过该算法来帮助你更快的完成你想要的句子。可它在另一方面,也既能阻止你讲脏话,还能改变你可能想讲的话。也许在一个不那么光明的未来,它会阻止你批评某个公司或者组织,甚至连一个有点创造性的提议都不会让你发出来。

最后,噩梦六,跨越了维度的麻烦。在噩梦二里面,随机鹦鹉还只存在于你的浏览器里,但是,当它跨出网络开始控制你的汽车时会发生什么?这就是华盛顿大学法学教授瑞安·卡罗最关心的。他指出,人工智能与重要系统之间的意外互动,可能会带来难以想象的后果。

其中一个系统可能就是你所在的智能城市。在那里,算法将控制从电网分配到交通流量等一切事情。想象一下,那些通过鹦鹉学舌自动产生了某些毫无意义的垃圾的算法,此刻可能正在控制着桥梁、控制着你所在建筑物的空调系统,或者,控制着你的自动驾驶车辆穿过拥挤的市区......难道不令人恐惧吗!

其实一些奇怪、或者说可怕的相互作用已经出现了。比如,之前就有一群自动驾驶汽车,毫无缘由的阻塞了旧金山数小时的交通。这还不是最差的,还记得我上面说的黑箱问题吗?在这里,黑箱问题也导致了人类既不能理解也不能修复的一些奇怪的交通行为。比方说,一个由AI控制的电网和交通系统,该如何应对一场突发而来的抗议或者庆祝活动呢?

好了,不知道你听完之后有何感想。虽然我此刻正在使用ChatGPT协助我的工作,但是不免,又增加了一点点我对它的戒心呀。