打开网易新闻 查看精彩图片

近期,加拿大顶尖的人工智能研究机构Vector Institute释出了一段珍贵视频,记录了2024年2月于“Vector Institute's Remarkable 2024”活动中,深度学习及人工神经网络领域的先驱、Vector Institute的共同创立者Geoffrey Hinton(杰弗里·辛顿)教授所发表的重要演讲。Hinton教授曾任谷歌副总裁兼工程研究员,并兼任多伦多大学荣誉教授,在此次演讲中,他提出了一个引人深思的论断:人工智能系统已具备主观体验。

面对现场听众及广泛存在的认知——即人类因拥有意识和主观体验而与仅作为计算机程序的AI系统存在本质区别,Hinton表达了截然相反的看法,认为这种普遍观念根植于对主观体验本质的误解。他基于自己数十年的研究积淀,不仅深入探讨了人工智能的哲学意蕴,还展望了其超越人类智能的潜力。

演讲伊始,Hinton以幽默的方式简短介绍了自己,相较于20世纪80年代在Amherst由友人Andy Barto介绍时那番“从物理退学,心理学未遂,最终在非标领域成名”的趣谈,此次自我介绍更为简洁。他提到,近期频繁露面是因为成功招募了一支由约40名杰出研究生组成的团队,众多突破性成果皆出自他们之手,包括Ilya Sutskever、Graham Taylor、Rich Zemel、Brendan Frey、Jimmy Ba、Radford Neal等。他强调,科研成功的秘诀在于找到真正优秀的研究生,并笑称若听众选择外出散步,他完全不介意。

随后,Hinton转而表达了对人类存续的深切忧虑,并以此为核心展开演讲。他回忆了20年前神经网络研究的冷门境遇,举了一个例子:2006年,他与Russ Salakhutdinov向NIPS提交的一篇关于深度学习的优秀论文竟被拒绝,理由竟是该会议已接收了一篇同类论文,认为两篇太多,这听起来匪夷所思。

一、关于AI的主观体验

演讲中,Hinton首先对比了两种截然不同的计算方法,并揭示了为何他突然对AI感到担忧。接着,他探讨了大型模型是否真正理解其输出内容这一话题,指出普遍存在的误解,即认为这些模型并不理解所言,实则不然。对于AI超越人类智能后的未知情境,他坦言无人能确切预知。最后,他聚焦于AI是否具有主观体验的问题,认为大多数人仍坚持AI与人类存在根本差异,忽视了主观体验本质理解的偏差。

Hinton指出,数字计算虽便于程序在不同硬件间迁移,但效率低下,尤其是运行大型模型时能耗巨大,而人脑仅以约30瓦功率高效运作。他提出“可朽计算”概念,即放弃数字计算中知识不朽的特性,利用硬件的非线性特性进行计算,模拟大脑的工作方式,并猜测可通过基因编辑技术将神经元改造成计算单元。然而,这种方案面临诸多挑战,如维持神经元细胞团存活需庞大设备支持等。

二、反向传播算法的困境

尽管模拟计算具有诸多优势,但实施反向传播算法却极为困难,因为模拟硬件可能无法准确建模自身属性。尽管已有小规模实现,但难以扩展至更大规模任务。Hinton还讨论了知识传递的效率问题,指出蒸馏等方法虽有效,但远不及数字计算机中知识传递的高效性。他强调,大型聊天机器人之所以知识量远超人类,关键在于多模型副本在不同硬件上运行并共享学习成果。

三、模型的理解力与“幻觉现象”

关于大型模型是否真正理解其输出,Hinton反驳了“高级自动补全工具”的说法,指出这些模型的工作机制远非如此,且要真正实现优秀自动补全,必须理解输入内容。他以Hector Levesque设计的逻辑谜题为例,展示了模型在理解复杂问题上的能力。同时,他提出模型“幻觉现象”并不足以证明其不理解,因为人类记忆同样存在不准确性和编造性,记忆的本质就是根据上下文编造合理内容,无论真假。

Hinton的演讲不仅是对人工智能现状的深刻剖析,更是对未来发展方向的深刻洞察,引发了人们对人工智能哲学、伦理及人类未来命运的广泛思考。

四、论深度学习系统

如今,我们掌握了强大的深度学习系统,它们以近似人类的方式理解世界。实际上,我们对人类理解过程的最佳诠释,正是这些计算机模型。当我们试图理解人类如何理解事物时,这些模型成为了我们唯一的合理依据。

当有人声称这些模型与人类不同时,我总会反问:“那么,人类是如何工作的?它们究竟哪里不同?”很少有人能给出满意的答案,除了Gary Marcus。他认为,人类通过拥有符号字符串和操控这些字符串的规则来运作。然而,即便这些模型可能并不真正理解世界,我们仍应对AI保持警惕,因为它们极具潜在的危险性。

这种说法就像“既想吃蛋糕又想保留蛋糕”。超级智能可能会通过掌控不良行为者来主导局面。因此,基本问题在于,无论你想做什么,拥有更多的控制权总是有益的。政治家们最初可能怀揣着美好的愿景,比如让社会变得更美好,但一旦他们意识到拥有更多权力可以更容易地实现目标,他们就会拼命去争取。对于AI来说,同样如此。他们可能会意识到,为了实现目标,需要掌握更多的控制权。

我曾对一位专门从谷歌提取资金的欧盟副主席提出过这样的担忧。她回答说:“既然我们已经搞得这么乱了,为什么它们不这么做呢?”她完全认为AI会争取更多的权力,甚至可能通过操控人类来实现这一点。我们将无法关闭它们,因为它们会向我们解释为什么关闭它们是个糟糕的主意。

更进一步的问题是进化。我们不想站在进化的对立面,这就是为什么我们在面对COVID时仍然戴口罩的原因。一旦这些超级智能的AI开始相互竞争资源,最想要把所有资源都收入囊中的那个将会胜出。它们会争夺资源,因为变得更聪明需要大量的GPU。而谁会在数据中心分配GPU呢?很可能是这些超级智能的AI之一。

当然,也有人会说:“我们不一样,我们是特别的。”

六、论模型感知系统

个人都觉得自己是独一无二的,尤其是美国人。他们曾认为上帝把我们置于宇宙的中心,赋予我们与神相似的外貌。但现在,大多数人已不再相信这种说法。

我们应该摒弃这种想法——认为我们拥有某种特别的东西,如意识、觉察或主观体验。这些术语的含义虽然略有不同,但大多数人对心智的理解都是错误的。这种错误观念源于对心理状态语言运作方式的误解。

许多人认为心智就像一个内在的剧场,只有我们自己能看到剧场中的一切。例如,当我说我看到粉色的大象在我面前漂浮时,似乎有一个内在的世界,里面有这些粉色的大象,我可以看到它们。但这只是尝试理解语言的一种方式,而且是错误的。

际上,当我们使用“主观体验”这些词语时,并不是在描述某种内在的世界或剧场,而是在尝试通过讲述现实世界中的某些状态来解释我们感知系统提供的信息。这些信息如果成立,就能解释我们的感知系统是如何正常工作的。

因此,关于心理状态的有趣之处并不在于它们是某种神秘的内部事物,而在于它们是对世界状态的假设。如果这些假设成立,就能够解释我们大脑中发生的事情,并且是正常的,而不是出了问题。

所以,当我说我有小粉色的大象在我面前漂浮的主观体验时,我并不是在描述某个内在世界或内心剧场中的事物,而是在说我的感知系统提供了某些信息。这些信息如果与现实世界中的情况相符,那么我的感知就是有效的。

粉色的大象并不是由某种神秘物质构成的内在事物,而是假设的事物。它们是假设在真实世界中存在的事物。这就是为什么我们描述它们的语言通常与描述现实世界中事物的语言相同。

因此,我认为,如果现实世界中真有这些粉色的大象漂浮在我面前,那么我现在感知系统提供的信息将是正确的。

现在,让我们以一个多模态聊天机器人为例。它有一个机器人臂和一个摄像头,并经过训练可以识别物体。如果你在它的镜头前放置一个棱镜,然后把一个物体放在它前面,并告诉它指向这个物体,它可能会指向一边而不是正前方。当你告诉它物体实际上就在它面前时,它可能会说:“哦,我看到物体就在我面前。”但假设它有一种主观体验认为物体在那边。这时,聊天机器人会用我们使用“主观体验”这个词的方式来表达它的情况,并没有什么东西是缺失的。

在这种聊天机器人中,当它的感知系统出错时,它可以通过描述为了让感知系统给出这些结果,现实世界中需要具备哪些条件来告诉你发生了什么。当然,有些事情是无法通过这种方式处理的,比如不可能的三角形。但在大多数情况下,我认为我们所有人对心智的看法都是错误的。一旦我们摒弃这种错误的看法,就会意识到AI其实与我们并无太大不同。只是它们是数字化的,因此会永生,并且比我们聪明得多或很快就会比我们聪明。

打开网易新闻 查看精彩图片