Kant and Artificial Intelligence
康德与人工智能
https://library.oapen.org/bitstream/handle/20.500.12657/57223/1/9783110706611.pdf#page=48
前言
在康德的时代,我们现在所称的人工智能尚未存在,或者仅处于极为原始的阶段。然而,这并不妨碍我们提出这样一个问题:康德会如何看待人工智能?或者更广泛地讲,如何依据康德哲学来评判人工智能的主张与局限?同样,反过来探讨如何从人工智能的视角来评估康德及其哲学的主张也是一个值得追求的问题。
本书的贡献涉及这两个问题。我们要感谢作者们以及沃尔特·德·格鲁伊特出版公司,同时,我们也要感谢韩国中央大学人文学科研究所的“人文+人工智能项目”团队的支持,以及崔智贤、朴光永和郑瑞娥在编纂索引方面的帮助。
金映珠 迪特·施内克尔
1 思维、大脑与深度学习:认知科学的发展与康德认知方法
摘要:
本文回顾了康德认知方法对认知科学诸多范式发展(如功能主义、具身认知和心智预测处理模型)产生的重要影响。第二部分探讨了人工智能最新发展引发的哲学问题与康德认知观的关联。具体而言,文章研究了在深度神经网络架构背景下关于感知、认知、学习、理解以及经验主义者与理性主义者之间古老争论的问题,以及康德认知观对这些问题的意义。
1 引言
从新闻标题来看,当代认知科学似乎深受康德哲学影响。哲学家安德鲁·布鲁克(1994)称康德为认知科学的“智力教父”,因为康德据称早已捍卫了一种心灵的功能主义理论,这可能是人工智能的哲学基础。神经科学家格奥尔格·诺思奥夫(2018,viii)报告说,重读康德的《纯粹理性批判》使他从教条主义的沉睡中醒来,就像读休谟的著作唤醒了康德一样。受关于自我生成大脑活动的实证证据的启发,诺思奥夫和其他人提出了“康德式大脑”的概念,并将这种活动与康德的自发性观念联系起来(法泽尔普尔/汤普森 2015)。弗朗西斯科·瓦雷拉(韦伯/瓦雷拉 2002)承认康德对他关于生命和认知的自创生方法产生了巨大影响,而最近林克·斯旺森(2016)则将流行的预测处理范式追溯到康德的一般项目。考虑到康德的项目主要不是关注心灵哲学的问题,而是由认识论问题驱动的,这显得尤为引人注目。尽管康德可能并不认同所有被归于他的观点,但这些著作将他理论哲学中的各种思想呈现为对当代心灵哲学和认知科学产生了巨大影响或仍然具有巨大影响。
在这篇综述论文中,我将首先概述康德对认知的方法在认知科学发展中的影响。康德的相关性远超某些概念的空洞和表面相似性;许多哲学家认为康德早已预见了经典认知主义、具身认知和心智预测处理模型的多个核心观点。在第二部分,我将通过讨论人工智能最新发展引发的哲学问题,再补充一个例子。具体来说,我想概述与所谓的深度神经网络架构相关的哲学问题,以及康德对认知和理解的构想对这些问题的意义。正如将要阐明的那样,深度神经网络(DNN)的性能引发了许多关于感知、认知、学习、理解的重要问题,以及经验主义者和理性主义者之间的古老争论;这促使一些机器学习研究人员复兴康德关于认知的一些核心思想,开发康德式认知架构,以克服现有深度学习架构的不足。
2 从康德理论哲学视角看认知科学
康德对当代思想的总体影响是毋庸置疑且广为人知的。戈麦斯(2017)列举了大量康德哲学曾产生并仍在产生深远影响的心理现象,如意识与自我意识之间的联系(施利希特,2016/2017)以及关于概念性和非概念性感知内容的争论(麦克道威尔,1994;汉娜,2008)。布鲁克(1994)已经认为康德关于心灵的一些核心观点直接推动了认知科学的发展,尤其是“大多数表象既需要概念也需要感知”这一观点,以及康德的先验论证方法,即试图“揭示某种现象发生的必要条件”。基于对康德在心灵哲学、认知科学和当代争论中所持立场的初步了解,我们可以通过康德理论哲学的各个方面来重构认知科学的历史变迁,并在认知科学家的作品中发现他的一些特定思想的痕迹。
2.1 康德与功能主义
1956年,在著名的达特茅斯会议上,约翰·麦卡锡首次提出“人工智能”(AI)一词时,将该项目的目标描述为“让机器以一种如果人类这样做就会被称为智能的方式行事”。玛格丽特·博登将人工智能研究的总体目标描述为“让计算机做心灵能够做的事情”。在随后的第一个研究阶段,麦卡锡等人已经设定了目标,他们打算“试图发现如何让机器使用语言、形成抽象和概念、解决目前只有人类才能解决的问题,并自我改进”。虽然在语音生成和国际象棋计算机等领域,人工智能系统有时甚至在非常专门的问题解决任务中超越了人类,但人工智能研究的“圣杯”一直是开发出具有“一般智能”的人工智能系统,即“在多种环境中执行任务和实现目标的能力”。这种对智能的宽泛描述避开了这个概念可能带来的“术语争论”。沃尔姆斯利并不认为“智能”这一术语选择具有重要意义,但他认为——呼应麦卡锡的目标——“人工智能的中心问题是比较性的:无论我们(人类)拥有什么,无论我们称之为智能、思维、认知、心灵或其他什么,机器是否也能拥有它?”
博登和沃尔姆斯利的描述将计算机和机器作为重点。然而,正如博登所指出的,计算机或机器本身并不是关键所在。人工智能并非关乎硬件,而是人工硬件所能实现的功能。因此,关注的焦点并非机器,而是虚拟机器,它们不过是可实现在多种硬件中的信息处理系统。因此,支持人工智能可能性的哲学背景理论一直是功能主义,该理论认为,心理状态总体上是通过其功能(或因果作用)来定义的。每种心理状态都通过其与系统输入、输出及其他系统状态的一组因果关系来确定(普特南,1965)。这种功能因果网络的实现被认为是偶然的,因为这些功能被认为具有多种实现方式(波尔格/沙皮罗,2016)。因此,经典认知主义——认知科学的首个范式——将认知视为与数字计算机中类似的的信息处理过程,特别是,认知被理解为由大脑中受语法驱动的符号表征结构的操作所构成,这些结构位于感觉输入和运动输出之间(福多尔,1975;皮利欣,1984)。例如,当我看着眼前的咖啡杯时,落在视网膜上的感觉信息会在专门的模块中进行处理,最终生成一个详细的三维图像,从而可以指导诸如抓取等动作。马尔(1982)在这方面提供了一个关于感知的典范理论。
一个与思考人工智能相关的观点是,康德据称捍卫了一种心灵的功能主义观念。在《康德与心灵》中,安德鲁·布鲁克(1994)以这种方式解释了康德对心灵的底层结构持不可知论的态度。尽管康德对唯物主义“不可调和地敌视”,但布鲁克认为“唯物主义可以非常容易地融入他的整体理论”(布鲁克,1994,第15页)。布鲁克对康德的立场印象深刻,即“就心灵的真实本质而言,必须严格保持中立”,他将这种不可知论视为当代功能主义观点的一个实例,即心理功能的“多种实现”;塞拉斯(1974)和米尔博特(1989)也持同样的观点。
然而,这种对康德心灵哲学的功能主义解释面临一些问题:首先,它忽略了康德对物质的特殊看法,即物质仅仅是现象,这导致阿梅里克斯(2000)将康德的立场解释为一种“纯粹非物质主义”。他通过允许对现象的底层结构具有一点知识(即它们不是物质的)来得出这种解释。但这种对物自体的知识的预设,被康德严格拒绝,这使得阿梅里克斯的解释本身也存在问题。其次,与之相关的是,对康德心灵哲学的功能主义解释与当代功能主义通常完全在本体论上中立的表述相冲突,而功能主义反而被当作通向唯物主义还原论的垫脚石,因为对心理现象以其因果作用来分析,通常伴随着关于这些心理功能的(可能多种)物理实现的额外主张(查尔默斯,1996/金,1998/莱文,2001/布洛克,2015)。从这个角度来看,康德显然会反对功能主义。第三,康德是否认为心灵的所有“功能”都可以被“功能化”,从而被物理机制“实现”,这是值得怀疑的。例如,康德所称的心灵的“自发性”,当被恰当地理解和视为知性的特征时,似乎与唯物主义不相容。3 阿利森,例如,不如布鲁克乐观,他认为布鲁克对康德心灵理论的功能主义-唯物主义解释不可能正确,因为在康德看来(或者更确切地说,在阿利森对康德观点的解释中),“认知必须被理解为不仅仅是从原始感觉输入开始,到知性的相对可靠产物(即认知)结束的复杂信息处理过程。……在这样的认知图景中(至少从康德的视角来看)所缺失的正是其自我意识、自我感知的特征”(阿利森,1996,第63页)。关于是否有一种方法可以在广泛的自然主义框架内纳入自发性的概念(无论其所谓的内在自我意识方面是否包含在内)以及感知的统一性,这是一个有趣的问题,我在此无法深入探讨。汉娜和汤普森(2003)、诺思奥夫(2012)以及法泽尔普尔和汤普森(2015)将大脑的自我生成活动视为康德所称的自发性的神经相关物的候选,但这一解释尚未得到充分论证(有关批评性讨论,参见施利希特和纽恩,2015;关于与神经科学的进一步联系,参见诺思奥夫,2013/2014)。
2.2 康德与大脑中的笛卡尔剧场
功能主义是否为我们提供了一种准确的心灵描绘,部分取决于人类(以及动物)大脑中实现心理功能的生物学特征。认知能否被理解为一组因果功能,从而可以抽象地从其实现的生物学特征中分离出来,使得这组功能原则上可以被使用非生物实现方式的机器所实现?或者认知是一种生物学现象,其实现依赖于一个复杂动态的生物学系统,即一个有机体(具有大脑和神经系统),并以生物化学的信息处理方式为关键?例如,心理表征状态是否可能是神经计算的“方面”,即生物学的,而不是与其实现者具有某种独立性的抽象功能(皮奇尼尼,2020)?
在20世纪80年代,神经科学中的新成像技术开启了一项对大脑的研究重点,产生了认知现象的连接主义神经网络模型。它们仍然保持计算性和表征性,但信息(例如关于我面前的咖啡杯)现在被认为是以次符号的方式进行处理;表征被提议具有非语言的结构(斯莫伦斯基,1988;克拉克,1991;谢诺夫斯基,1992;丘奇兰,1997)。这一转向伴随着机器人技术和人工智能的新发展,因为一些研究者现在拒绝了对世界完整模型的需求,转而支持不依赖于世界详细表征的更稀疏的“子集架构”(布鲁克斯,1991)。正如我们将在论文的第二部分看到的,这种向大脑架构的转向也启发了更近的机器学习技术,其中深度学习是最突出的。
在功能主义和生物学方法对认知的争议背景下,值得注意的是,一方面,康德预见了功能主义的前身——心灵与大脑的同一论(普莱斯,1956/斯马特,1959)的某些问题,这些问题后来以丹尼特的“笛卡尔剧场”对意识唯物主义的反对形式重新出现;另一方面,康德也对大脑的特征印象深刻,这些特征可能解释某些认知现象。这种张力可以通过审视他与医生萨缪尔·托马斯·冯·索默林的交流来揭示。
1796年,萨缪尔·索默林出版了一本名为《论灵魂的器官》的短书,他在书中推测大脑室中液体可能具有的功能,即在感觉数据的综合与分析(综合与分析)中发挥作用。在出版之前,他就自己关于大脑中感觉器官或灵魂之座的想法与康德进行了交流。在一封信中,康德尊重索默林的立场,但明确表示对整体方法的怀疑,因为“正是灵魂之座的概念导致了关于共同感觉器官的学科分歧,因此最好完全排除这个概念,这更有理由,因为灵魂之座的概念需要一个确定的地点”(《康德全集》第12卷,31-32页)。与这种方法相对,康德建议认真考虑心灵在大脑中的“虚拟存在”这一想法,这使得关于什么可以作为“灵魂之座”的整个问题消失,或者他是这样声称的。遗憾的是,他在这里没有阐明他所指的虚拟存在是什么意思。在这一问题上,另一个引人注目的段落可以在他的《形而上学讲义》(《V-Met》)中找到,他在那里强调“灵魂在身体中的位置……不能确定”(《康德全集》第28卷,281页)。尽管有这一认识论的限制,康德提出一个论点,听起来像是在暗示当代的从属观念,即把所有感觉的基础置于大脑中。引用这段文字的完整内容是值得的(康德的强调):
但所有感觉的原因是神经系统。没有神经,我们就无法感知任何外部事物。但所有神经的根是大脑;大脑因此被每次感觉所激发,因为所有神经都集中在大脑中;因此,所有感觉都集中在大脑中。因此,灵魂必须将其感觉的座位放在大脑中,作为所有感觉条件的位置。但这并不是灵魂本身的位置,而是所有神经,因此也是所有感觉的起源位置。……例如,当我将一根手指放在火上时,我会在其中感到疼痛;但最终,来自身体每个特定部位的所有感觉都集中在大脑中,即所有神经的根;因为如果切断身体某部分的神经,那么当然我们不会从该部分感到任何东西。因此,所有感觉的原则必须在大脑中。……当我们设想大脑中的一个位置,即神经根的第一个原则,所有神经都汇聚在一起并结束于一个点,这被称为感官的座位,但没有一个医生见过这个位置,那么问题就出现了:灵魂是否住在感官的座位里?它是否在那里占据了一个小点,从而可以像一个风琴师可以从一个位置指挥整个风琴一样指挥整个身体;或者它在身体中根本没有任何位置,以至于身体本身就是它的位置?承认这一点,如果灵魂在大脑中占据了一个小点,在那里它像演奏风琴一样在我们的神经上演奏,那么我们可以相信,如果我们已经检查了身体的所有部分,我们最终会在灵魂居住的这个小点上发现它。现在,如果移开这个小点,整个生物可能仍然存在,但风琴师应该演奏的位置就缺失了,就像在风琴上演奏一样:但这种想法是非常唯物主义的。(《V-Met》、《康德全集》第28卷,281-282页)
我想在此背景下,强调康德与索默林观点互动的两个令人印象深刻的特征。首先,这些段落在效果上预示了丹尼特(1991)对所谓的“笛卡尔唯物主义”的反对,这种立场据称被许多当代神经科学家所持有,他们试图将大脑的某些区域或过程确定为对意识负有因果责任(或与意识等同)。在考虑丹尼特将心灵描述为“在大脑的并行架构中实现的虚拟机器”(丹尼特,1991年,第210页)时,心灵在大脑中的局部与仅仅是虚拟存在的术语对比,具有一种非常现代的意味,实际上预示了心灵的功能主义观点。不过,康德在讨论索默林的提议时使用“虚拟”一词是否与丹尼特的用法相似,很难确定。
其次,康德甚至参与了索默林关于大脑室中液体的具体提议,表达了他对这种候选基质未被组织化的“重大疑虑”。只有某种具有组织化或“部分的有意图安排”的东西,才能作为心灵的定位之所。这让人想起康德在《判断力批判》中对有机体作为自然目的的开创性且极具影响力的讨论,即自我生成和自我组织的存在。与单纯的机械组织不同,康德认为他所称的“动力组织”对于心灵至关重要。同样,康德在所引用的段落中并未进一步明确其含义,但可以通过他在第三批判中关于机械论与目的论解释对比的讨论来阐明。这种对生命有机体内在目的性的讨论,启发了一代又一代的哲学家,直至今天所谓的“具身”心灵方法的发展(瓦雷拉等人,1991年;韦伯/瓦雷拉,2002年;汤普森,2007年)。
2.3 康德与具身认知
在1990年代早期,弗朗西斯科·瓦雷拉在他最后的著作之一中承认,康德关于有机体的开创性讨论对“自创生”或“具身”认知观念的发展产生了影响(韦伯/瓦雷拉,2002)。与布鲁克斯(1991)在机器人学中的工作一道,具身认知方法对表征主义范式提出了挑战,并反对传统“三明治观念”(赫尔利,1998)中感知与行动的明确分离,转而支持一种动态的观点。与从感觉输入经由认知计算再到行动的传统线性进程不同,具身认知将感知和认知视为不仅仅是功能性的脑状态,而是与整个有机体(代理人、系统)的具身活动交织在一起,且无需诉诸心理表征即可得到解释(例如,瓦雷拉等人,1991;诺埃,2004;切梅罗,2009;赫托/迈因,2013;加拉格尔,2017)。事实上,在这一框架内,意向性与心理表征的等同不再被视为理所当然(施利希特,2018)。以上文中提到的例子来看,感知不仅需要诸如眼睛、头部和身体的运动等多种动作(如目光转移等);从一开始,感知就是为探测行动可能性(如抓取)服务的(吉布森,1979)。
所有具身认知者都认同汤普森(2007,第128页)所称的“生命与心灵的深层连续性”,即心灵的组织特征是生命特征的丰富版本(诺埃,2009,第41页;科隆贝蒂,2013,第xvi页;加拉格尔,2017,第102页;迪帕奥洛等人,2017,第3页、第178页)。在评估康德对当前认知科学的影响时,这是具身认知的关键方面。这一观念的核心是自创生(马图拉纳/瓦雷拉,1980)。一个自创生系统——最小的生命组织——是这样一个系统:它不断产生构成自身的组分,同时在时空上将自身(系统)实现为一个具体的统一体,从而使组分生成网络得以可能(韦伯/瓦雷拉,2002,第115页)。在第二批判中,康德将有机体视为“自我组织”和“自我生成”的,即自创生的系统,这种系统不能仅用机械论来解释,而必须借助不属于自然科学、而是从实践背景借来的目的论原则,使我们能够理解这种组织。
弗朗西斯科·瓦雷拉认为康德的立场很重要,因为他认为康德“在强烈的目的一论和粗暴的唯物主义之间开辟了第三条道路的可能性”(韦伯/瓦雷拉,2002,第99页)。瓦雷拉承认康德的洞察力,但认为他的立场“不稳定”,需要“根据现代生物学研究和思维的发展”进行修正。根据韦伯和瓦雷拉的观点,康德关于有机体作为自我组织和自我生成的存在的观念,与瓦雷拉自身理论中对有机体的定义非常相似。在这种观点下,生物自主性和个体性使得假设有“内在目的论”成为可能,即“有机体是根据其生命过程中遇到的价值观而具有目的的主体”(韦伯/瓦雷拉,第102页)。自创生理论作为生命系统的理论,旨在帮助使康德关于有机体的原始理论自然化。康德对这一目的论问题的认识论和批判性立场,或瓦雷拉的自创生自然主义理论是否合理,超出了这篇综述的范围。但这也说明了康德的生物学哲学在认知科学发展历史中留下了具有广泛影响的足迹。
自创生认知方法和生命与心灵连续性论题的一个特定含义是,所有生物体可能至少表现出某种基本形式的认知,而这样的观点在允许人工系统具有真正认知方面存在问题。与更传统的认知主义方法相比,近年来,关于“简单”生物系统中的认知可能性开始受到重视,例如细菌(本·雅各布等人,2006)、植物(卡尔沃/克伊泽尔,2011;卡尔沃等人,2020;曼库索,2018;西姆斯,2019)和黏菌(巴尔韦尔杜等人,2018)。康德是否会认为生命与心灵连续性论题是可信的,这里必须存而不论,尽管努涅兹(即将出版)依据《判断力批判》(§65)认为,康德至少会根据植物的运动方式以及康德本人对“活着”的概念的处理,赋予植物欲望。
发育生物学家迈克尔·莱文通过论证我们应该将计算方法应用于不仅有大脑和神经系统的动物,还应用于没有大脑的简单生物,从而使这个故事循环往复。与其继续将大脑与身体其他部分对立(即使在所谓的具身认知研究计划中,见沙皮罗,2011),莱文邀请我们考虑身体也在执行计算,以便克服传统的生命与机器二元对立,并根据“机器”的更新概念(邦加德/莱文,2021)。莱文对生物体的形成能力感到困惑,推测细胞和组织可能表现出一些基本的记忆和行动形式,利用生物电进行交流和决定或计划发育(莱文等人,2021;佩佐卢等人,2021)。例如,他成功地将一种扁虫重新编程,使其在尾巴被切断的地方长出第二个脑袋。他所做的是改变了通常会导致新尾巴生长的生物电信号或“代码”。莱文的工作表明生物学和计算机科学之间的融合,因此对人工智能的未来具有重要意义。
2.4 康德与预测处理
机器学习的重大发展也极大地启发了最近流行的预测处理模型,该模型将大脑视为“预测机器”,被认为提供了“第一个真正统一的感知、认知和行动解释”(克拉克,2016,第2页)。这种观点涉及自下而上和自上而下处理之间的微妙平衡,与传统的自下而上的串行处理账户不同:感知和认知被定义为大脑对传入感觉刺激的假设进行检验;这些假设是由世界层级生成模型产生的,并根据预测误差信号不断更新(Friston,2010;霍伊维,2013;克拉克,2016;梅茨宁/维斯,2017)。以我们之前的例子为例,感知咖啡杯是一个已经由大脑底层过程决定的过程,这些过程构成了一组关于感觉输入及其原因的或多或少可能的预期。这些预期不断与实际传入的感觉信息进行比较,产生预测误差(偏差),并在大脑中进行处理。传统的大脑使用传入感觉信息来构建世界表征的图景因此被颠倒了,因为新图景认为“关于世界事态的丰富表征是在自上而下的感觉输入预测中信号的,由大脑中的感知层次结构维持”(霍伊维,2013,第47页)。
林克·斯旺森(2016)认为,这一认知科学最新范式也扎根于康德的哲学,并通过赫尔姆霍茨的感知作为无意识推断的论文追溯了这一影响,而后者又是Friston(2005;2010)关于预测处理作为统一脑理论的最初提案的主要来源。预测处理所特有的自上而下的假设检验(而非自下而上的模型构建)的彻底反转,在康德所谓的“哥白尼革命”中找到了类比,后者结合了直观(提供材料)和概念(生成对所感知事物的理解),呈现出一种具有康德精神的“自发的”解释活动,而非一种从输入被动构建感知的过程(格瓦德杰夫斯基,2016,第574页)。但斯旺森还将预测处理故事中更具体的概念与康德理论中的特定类比联系起来——例如,生成模型和图式,它们在对象识别过程中都受到直观和概念的强烈影响。确实,克拉克和霍伊维选择的起点对于康德主义者来说非常熟悉,只是从大脑的角度出发,其任务“从某种距离来看,可能显得不可能:它必须在没有任何形式的直接访问源信号的情况下发现可能原因的信息”(克拉克,2013,第183页)。这样表述的话,核心问题在于理解因果关系,即理解世界原因与感觉输入之间的关系。假设休谟框架,康德认为这是不可能的,他提出了一种先天的概念机制(范畴),必须应用于感觉输入,以实现这种理解。
但只有霍伊维对预测处理框架的解释像康德那样是内在主义的。确实,霍伊维认为,预测误差最小化理论“揭示了心灵在推理上与世界隔绝”,表明应该拒绝关于认知和心灵的强烈具身观点,转而支持“一种更传统的、对心灵-世界关系更持怀疑态度的观点”(霍伊维,2014,第259-260页)。因此,贝尼(2018)抱怨说,斯旺森的重构只适用于霍伊维的预测处理版本,而忽略了克拉克(2016)和布鲁因伯格和里特维尔德(2014)或布鲁因伯格、基弗斯坦和里特维尔德(2016)提出的占主导地位的具身和行动导向版本,这些版本更多地受到吉布森(1979)的生态心理学的启发,而不是康德的先验唯心主义。鉴于它与霍伊维版本共享的认识论起点,具身预测处理是否站得住脚、是否连贯,无法在本文中进一步探讨。无论如何,认为预测处理扎根于康德心灵观的观点必须持保留态度,就像将康德心灵观等同于功能主义的想法一样。
关于功能主义、具身认知和预测处理在康德哲学中的所谓根源,重要的是要记住,这些不同的范式背景对认知、意向性和表征之间的关系采取了不同的立场,并在认知科学中提出了不同的解释策略。考虑到一些当代立场的对立(和真正的不相容性),康德不太可能同时认同所有这些观点。
2.5 间奏:康德对认知的阐述
如我们所见,预测处理方法的核心在于理解因果关系。这也是将休谟的经验主义与康德的先验唯心主义及其“哥白尼革命”联系起来的重复主题。休谟认识到,对A和B之间因果关系的理解不能仅基于感觉输入,因为这仅能提供事件A和B的时间顺序,而非它们之间的联系,从而导致他对因果关系理解的怀疑。康德在评估感觉经验在解释因果关系方面的不足时追随了休谟;同时,他愿意从理性主义者那里借用先验概念,并声称理解力本身是提供必要统一的概念系统的来源。现在,在论文第二部分的讨论之前,提醒读者康德认知理论的核心是有益的。
在两篇非常有启发性的论文中,马库斯·瓦拉舍克和埃里克·沃特金斯(沃特金斯/瓦拉舍克2017,瓦拉舍克/沃特金斯2020)概述了康德著作中认知概念的复杂用法。最显著的用法是他们所谓的狭义认知,这需要直观和概念的统一,即感觉接受性和理解力自发性的结合。相比之下,广义认知允许有几种“认知程度”,在所谓的亚斯切逻辑(《康德全集》第16卷:64-65页)和《纯粹理性批判》(A320/B376)中以不同的方式勾勒,但未必不相容。在后者中,它们被呈现为不同程度的“表征某物”,无论是无意识地、有意识地,通过感知、理解或理性,涉及或不涉及概念或直观。最基本的认知程度是“表征某物”,没有进一步的条件;最高或最复杂的程度是通过理性和先验“理解某物”。重要的是,在康德的分类中,认知并不意味着真理或同意,因此必须与知识概念区分开来(瓦拉舍克/沃特金斯2020)。从广义上讲,任何有意识的表征,只要它表征了一个对象,就算作一种认知,即使该对象不存在(或在经验中无法被给予)。
尽管康德使用的认知概念有多种维度,但狭义认知被单独挑出,作为“严格意义上的认知”(《纯粹理性批判》:A78/B103),这将是这里关注的概念。狭义认知可以描述为“对给定对象及其一般特征(至少某些)的有意识表征”(沃特金斯/瓦拉舍克2017,第86页)。为了获得对象认知,对象必须被给予,并且必须应用一个概念。前者是感性的任务,后者由理解力执行。这种认知是积极实现的,而不是偶然发生的,因为它是由想象力进行的综合的产物——“仅凭这一点,我们才能有认知”,至少在狭义认知上是如此。这段话非常强调综合的功能,这被定义为“将不同的表征彼此结合,并在一种认知中理解它们的多样性”(沃特金斯/瓦拉舍克2017,第86页)。作为对休谟提出的问题的初步回答,综合行为“收集认知的要素,并将它们统一成某种内容”。如果没有将概念应用于给定对象的这种统一过程,直观将“盲目”,思想将“空洞”(《纯粹理性批判》:A51/B75-76)。康德因此强调,如果我们对“我们认知的最初起源”感兴趣,我们必须关注综合。
亚斯切逻辑中关于认知程度的构想和《纯粹理性批判》中的“进展”段落的共同点在于,狭义认知 presupposes 意识。在亚斯切逻辑中,康德概述了一种渐进的认知概念,这种观点在第四种程度中体现为“有意识地认识某物,即认知它”(《康德全集》第16卷:65页),而在“进展”段落中,康德则进一步阐述了这一点:“属是一般的表象(repraesentatio)。在它之下是具有意识的表象(perceptio)。指涉主体作为其状态的修改的感知是感觉(sensatio);客观的感知是认知(cognitio)”(《纯粹理性批判》:A320/B376)。托利(2020)认真对待这一进展,认为康德将感知、直观、感知和单纯的思考归类为“早于”认知且为认知提供条件,同时仍将认知视为与知识、理解和解释相比处于“心理上较为基础的层面”。与沃特金斯和瓦拉舍克不同,托利认为康德的认知概念是统一的,而非多义的。
无意在康德对“认知”的使用这一问题上解决这场争议,但各方都同意他强调狭义认知,而其他候选概念则属于当代认知科学中使用的认知概念的范畴。而且,由于康德认为狭义认知是一种“通过对表征的特定结合来意识一个真实对象的独特形式”(托利2020,第3217页),因此意识是这种严格意义上的认知的条件(我将在本文的最后一部分回到这一点)。按照康德的观点,一个人工系统若要在狭义上具备认知能力,它也必须具备意识能力。这种认知观在当代认知科学家中并不普遍。感知和认知的预测处理方法的支持者也并不认为这些过程需要意识,尽管他们常常声称该框架也可用于解释意识(霍伊维/塞思,2020;克拉克,2019)。然而,即使一个人工系统在相关意义上可能不具备意识,它仍可能在广义上具备认知能力。也就是说,可以认为它至少对某物有表征。
在回顾了康德对认知的看法之后,我们现在可以在论文的第二部分,转向人工智能的最新发展,即深度学习架构的兴起和成功,这导致了最近的人工智能热潮。正如我将试图展示的那样,这一引人入胜的发展引发了关于感知、学习和理解本质的有趣哲学问题,以及关于经验主义与理性主义方法的更广泛问题。
3 深度学习的潜力与局限性
经历了一系列严冬之后,人工智能研究取得了相当大的进展,这得益于所谓的“深度学习架构”的出现(LeCun/Bengio/Hinton 2015;Buckner 2018/2019;Sejnowski 2018)。到目前为止,这是人工智能从“好旧式人工智能”(即 GOFAI)方法向连接主义方法转变的结果。当前关于人工智能的讨论通常集中在不仅处理固定编程算法的软件,还可以通过算法进行训练,使得部分过程可以由软件自身开发。这种机器学习方法是人工智能众多方法之一,包括监督学习、无监督学习和强化学习。基于人工神经网络的深度学习目前是最有前景且被广泛讨论(和使用)的方法,因此我们在这里将重点介绍它。
与传统 GOFAI 方法的关键区别在于,这些神经网络受到人类大脑组织结构的启发——更具体地说,是视觉皮层的分层架构——而与它们的历史前身,即20世纪80年代和90年代的连接主义网络相比,主要区别在于模拟神经元的层数。经典网络仅由输入层、一个隐藏层和输出层组成,而深度神经网络之所以“深”,是因为它们有多个隐藏层,实际上层数可达数百层。这成倍地提高了它们的计算能力,使它们能够表示环境的抽象特征,并且被认为是它们在许多应用中近期成功的主要原因。尽管这一新阶段早在20世纪80年代就已经开始,但研究人员直到21世纪 late 2000s 才开发出具有必要计算能力的计算机。网络的节点通过树突连接在一起,就像真实神经元之间的连接一样,它们之间的连接具有不同的权重。A 和 B 之间的权重越大,A 对 B 的影响就越大,反之亦然(因为权重是对称的)。
通过研究猫,神经科学家、诺贝尔奖得主大卫·休贝尔和托尔斯滕·威塞尔(1962)发现,不同波长的光会激活眼睛后部的细胞,这种激活通过视神经传入大脑,最终到达视觉皮层中层次分明的神经元层。不同层的神经元有特定的偏好(或感受野),从而检测到越来越复杂的特征,从边缘到简单和复杂形状,再到整个物体,如面孔。网络的节点就像简化的、形式化的神经元。输入层为网络提供数据——图像、语音、手写数字、游戏等——,而输出层则产生期望的结果,例如图像或物体的分类、数字或单词。在两者之间,多个隐藏层执行计算以产生该结果:
例如,图像以像素值数组的形式输入,表示层的第一层中的学习特征通常表示图像中特定方向和位置的边缘是否存在。第二层通常通过识别边缘的特定排列来检测图案,无论边缘位置有小变化。第三层可能会将图案组合成对应于熟悉物体部分的更大组合,而后续层则会将这些部分组合成物体。深度学习的关键在于,这些特征层不是由人类工程师设计的,而是通过通用学习程序从数据中学习得到的。(LeCun/Bengio/Hinton 2015,第436页)
几个主要因素对它们的性能至关重要:
(1)首先,顾名思义,这些网络能够学习,因此可以从输入数据中进行训练;它们并非预先编程(尽管程序员选择输入数据)。学习通过根据感觉反馈调整权重来实现。这些网络从任意权重开始,并在训练阶段调整这些权重,训练过程中它们会受到大量数据的轰炸。如果目标是学习识别物体,输入将是图像;如果目标是学习玩游戏,输入将是这类游戏。依此类推。
(2)这是第二个重要因素:使用像 image-net 这样的互联网数据库,给定网络的训练集可以包含数百万个示例,例如数百万张狗和猫的图像,或者数百万场围棋比赛——比任何人类一生中可能遇到或玩的狗、猫和游戏都多得多。请注意:重点不是 DNN 可以依赖如此多的数据,因此在计算能力上比人类有显著优势;重点是它们必须依赖如此多的数据才能达到这种显著的性能水平。相比之下,儿童可以从少量示例中快速学习(凯里,2009)。这是一个重要的区别。由于现实世界并不像网络的监督学习训练集那样整齐标注,因此这不可能是模仿人类学习或理解的途径。它从一开始就不同。但这并不妨碍我们将这种程序视为“智能”或“认知”的实例,因为这些现象可能允许多种实现方式。
然而,如果图像已经标注(这是一只狗,这是一只猫)——这是机器学习最常用的方法——网络最终将学会在识别狗和猫时产生自信的结果(输出)。通常,输出不是单一答案,而是“每个类别的得分向量”,目标是让机器给期望的类别最高分(勒昆等,2015,第436页)。例如,如果输入是一张狗的图像,网络可能会输出70%狗、20%狐狸、10%猫,即具有不同置信评级的输出。最终,在最初犯了许多错误之后,性能会提高,因为这些错误是使用所谓的“反向传播”来处理的:它计算期望输出和实际输出之间的差异,并将这个错误信号(这不是一只狗)反馈到网络的隐藏层。通过沿途调整权重,网络在下次遇到这张图像时可以表现得更好。
尽管尚不清楚是否存在与这种反向传播过程相似的生物机制,但它对这些网络非常有效。由于网络在每一层能识别的内容并非预先编程,它必须找出对任务(例如识别狗)至关重要的最显著和特征性的特征。这对于测试阶段非常重要,在测试阶段,网络应该能够对训练集中未出现的新物体(更多猫和狗)进行分类和识别,并具有高度置信度。到目前为止,DNN 在以高置信度(例如60%狗、30%猫、10%狐狸)识别物体时,尚未让我们明白它们是如何做出决策的。今天最突出的人工神经网络——卷积神经网络,或 ConvNets(米切尔,2020,第73-88页)——是以使DNN产生特定输出的操作命名的:卷积。卷积是一种数学过程,就像一个滤波器在图像上滑动,并在图像上创建一层特征(塞杰诺夫斯基,2018,第130-131页)。它通过确定图像的某个部分(例如网格中的像素集)是否包含或表示某个特征,然后为该网格部分分配一个数字来实现这一点。对多层重复此过程,可以覆盖图像的越来越多部分,并检测到越来越抽象的特征,从而对应于休贝尔和威塞尔的“简单细胞”。
网络仍然依赖于人类专业知识,以反馈(标签)的形式对其结果进行评价。这使得学习过程成为“有监督”的。输入是固定的,结果是确定的;网络必须学会仅凭自身资源——多层模拟神经元通过不同权重连接——从A到B。在接收输入图像后,网络逐层进行计算,最终产生输出。这可以表述为对每张图像和每个类别的置信度(介于0和100%之间)。一些网络在image-net竞赛中已经实现了超过90%的准确率(米切尔,2020,第101页)。尽管如此,它们的性能仍然有限,因为它们只能在正确或错误地对输入图像(或单词)进行分类,而不能产生任何新的见解。在无监督学习中,当结果(如“狗”这个标签)不是给定的,而是网络通过关联和聚类某些模式彼此发现的,这似乎是可以实现的。例如,网络可能能够检测到社交媒体源中比其他词更频繁使用的词,或者可能认识到购买产品A的顾客也经常购买产品B,然后可以将B推荐给新购买A的顾客。
(3)DNNs 的第三个独特之处在于它们所犯错误的类型,以及这些错误与人类所犯错误的差异。
由于人类也会犯错——例如容易受到视觉错觉的影响——因此这些网络的表现不必完美。但它们有多容易被愚弄,这一点非常有启发性:
它们也会被包含多个物体的图像弄糊涂,但与人类不同的是,它们往往会错过图像中小的物体、被摄影师应用的颜色或对比度滤镜扭曲的物体,以及物体的“抽象表现形式”,例如狗的绘画或雕像,或毛绒玩具狗。
(米切尔,2020,第105页)
此外,最令人不安的是,DNN 既容易被故意操纵输入数据所欺骗,也容易被现实世界中网络准备不足的新情况所愚弄。例如,自动驾驶汽车的自动驾驶模式曾被道路上为应对暴风雪而铺设的盐线弄糊涂,因为这些盐线看起来就像车道标记——这是一种不太可能但确实可能发生的情况。米切尔(2020,第120页)报告了她的同事威尔·兰德克尔的实验结果,他训练了一个网络将图像分类为“包含动物”和“不包含动物”。但在测试阶段发现,该网络将所有背景模糊的图像都分类为包含动物,因为动物的特写照片与背景模糊的图像之间存在高度相关性。也就是说,该网络对训练集“过拟合”,因此未能准确预测与训练集稍有不同但属于同一相关类别的未来数据。另一个错误则发生在谷歌照片应用上,当时它将一对非裔美国夫妇自拍的照片标记为“大猩猩”(文森特,2018)。DNN 还可以通过所谓的“对抗性示例”被更系统地欺骗。这些图像经过故意微小的扭曲,人眼无法察觉,却导致 DNN 将图像中的物体分类为任意其他物体,即使它之前正确分类了原始图像。例如,一只狮子现在被分类为图书馆,两次分类的置信度都很高(斯泽格迪等,2015)。随后,阮、约辛斯基和克鲁恩(2015)证明,可以制作显示物体 A 的图像副本,其中包含人眼无法识别的差异,但 DNN 却声称这些副本以 99% 的置信度显示另一个物体 B。这似乎表明,DNN 不仅学习方式与人类截然不同——“在最具体的细节层面,DCNN [深度卷积神经网络] 和人类感知皮层并不会产生完全相同的现象”(巴克纳,2018,第28页)——而且它们也不值得信赖。因此,卷积神经网络为何能像现在这样有效,仍然是个谜。这种学习和决策过程的不透明性使得理解这些网络学到了什么以及如何学习变得困难。米切尔(2020,第132页)总结道,“与人类感知非常不同的东西正在发生”。
3.1 深度神经网络的哲学解释
正如我们在第一部分所见,康德认知理论的一个关键方面是他主张自下而上和自上而下处理之间存在平衡互动,用他的术语来说,即直观与概念之间的互动。他的方法的第二个不同方面是主张认知中有先验的贡献,即独立于经验或学习并且系统地先于经验或学习的贡献。例如,在我们对因果关系的理解方面,康德与休谟有相同的出发点,强调因果关系不能被视为“数据驱动学习的直接结果”(巴特菲尔,2020,第93页)。然而,与休谟的怀疑论不同,康德得出结论认为,必须存在一种未被学习的理解贡献,这通常被认为是“先天的”。
考虑到前面的段落,DNN 也引发了关于感知、分类、抽象、概念学习和理解的诸多有趣问题,并且还涉及了在经验主义者与理性主义者争论背景下关于先天与后天的争论。巴克纳认为,在今天的辩论中,问题不再在于心灵是否以一种无结构的‘空白石板’开始,而在于范畴表征“主要是由于领域特定的认知机制还是领域通用的认知机制”(巴克纳,2018,第3页)。领域特定认知机制的一个典型例子是乔姆斯基的普遍语法,它构成了我们学习所有自然语言的语言习得装置;它是领域特定的,因为它仅涉及语言。相反,有人可能假设只有一种领域通用的全能学习装置,允许我们在不同领域获取知识(例如,在斯金纳1957年的书中,该书受到乔姆斯基1959年的批评)。至关重要的是,辩论中的反对者不会将后者视为支持先天论的证据,因为正如朗(手稿,第3页)所言,每个人都同意学习需要某种先天的东西。他建议,根据马戈利斯和劳伦斯(2013年),以这种对比来框定争论,其中先天论认为认知(在给定领域)需要领域特定的机制,而经验论认为(对于任何领域)领域通用的机制就足够了。那么,我们面临的问题如下:鉴于 DNN 并非从零开始,它们是否需要领域特定的机制,还是可以仅依靠领域通用的机制来实现通用智能?(2)康德的范畴体系是一种领域通用的还是领域特定的认知机制?
关于问题(1),朗(手稿)有用地区分了人工智能的发展,并提出了更细致的理论选择。为了尽可能简化问题,我们将重点关注其中的两种选择:“先天论的必然性主张必然地,一个人类水平的人工智能系统将是一个先天论的系统”(朗,手稿,第6页)。也就是说,在这种观点中,通用智能需要先天的(领域特定的)机制。相反,“经验论的可能性主张一个人类水平的人工智能系统可以是一个经验论的系统”(朗,手稿,第6页);也就是说,在这种观点中,通用智能不需要领域特定的机制,而是可以通过依赖领域通用的机制来获得。朗认为“经验论的人类水平人工智能至少是可能的”(朗,手稿,第1页)。也就是说,朗属于一个我们可以称为“乐观主义者”的群体。乐观主义者声称,开发者可以在不依赖领域特定机制的情况下克服当前人工智能系统与人类水平理解之间的障碍。相反,悲观主义者声称,开发者仅通过依赖领域通用的机制来构建能够实现人类水平理解的人工智能系统将不会成功。为此,需要领域特定的,即先天的机制。
(a)乐观主义者
在一篇开创性的文章中,LeCun、Bengio 和 Hinton(2015 年,第 436 页)声称,深度神经网络(DNN)能够“学习具有多个抽象层次的数据表示”。如果确实如此,这将是 fantastic 的,因为——根据 Mitchell(2020 年,第 319 页)——“某种形式的抽象构成了我们所有概念的基础,甚至从婴儿时期开始”,这将为深度卷积神经网络(DCNN)可能仅仅通过接触数据就能获得概念和理解打开大门。LeCun、Bengio 和 Hinton 是乐观主义者。Buckner(2018 年)同样持乐观态度,他对 ConvNets 的成功印象深刻,并在经验主义心灵哲学的背景下讨论它们,声称它们“模拟了一种从经验中抽象的独特形式”,并且“智能的一个至关重要组成部分——一种范畴抽象的形式——是通用智能所需的众多组件之一”(Buckner,2018 年,第 3 页)。他还强调了 DNN 的几个核心特征——多层、卷积滤波器和池化——并认为“它们共同实现了一种层级抽象,通过迭代地将问题特征空间转换为简化的表征格式,从而降低问题特征空间的复杂性,这种格式保留并突出了与任务相关的特征,同时控制了对分类无关紧要的干扰变化(如大小、位置等)”。他将这一过程称为“变换抽象”(Buckner,2018 年,第 18 页)。在他内容丰富、论证密集的论文中,Buckner 很好地呈现了洛克、贝克莱和休谟对抽象的 somewhat mysterious 和 unsatisfactory 的解释,最终引出了心灵如何从具体实例中抽象出抽象类别(洛克)或从抽象类别回到实例(休谟)的难题。在这一过程中,知识从何而来,以确定哪些细节应该被忽略(洛克)或添加(贝克莱、休谟)?尽管在某一点上,他承认他所发展的理论“开始看起来更像是康德(以及当代康德主义者如 Barsalou 等人)提供的抽象理论,他们强调需要合成规则来生成对应于抽象类别的具体可能实例的范围”(Buckner,2018 年,第 12 页),但他仍然沿着可能性经验主义的路线论证,认为这一挑战可以通过经验主义的解释来应对。他满足于证明 DNN 所进行的抽象验证了“洛克、贝克莱和康德观点的元素”,既不承诺任何一种历史解释,也不承诺这些观点之间的 crucial differences。
(b) 悲观主义者
目前,可以公平地说,指出深度神经网络(DNN)诸多局限性的悲观主义者群体更大,或者至少比乐观主义者更喧嚣(具体取决于你与谁交谈)。巴克纳(2018)指出,当代理性主义者对领域通用机制是否足够持怀疑态度。确实,米切尔(2020,第132页)认为,深度神经网络的主要问题是“理解”。这些网络缺乏丰富的背景知识——关于物体功能(可负担性)、记忆和情境依赖认知的信息——这些信息丰富了人类感知。她认为,“人类被赋予了一套核心知识”(米切尔,2020,第309页),并引用了斯佩尔克和凯瑞(1996)的有影响力的工作,该工作提出了领域特定的核心知识系统,使人们能够识别物体、主体、数字等——即因果、数字、物体和主体等概念。这些系统的特征列表中通常包含“先天性”。
马库斯和戴维斯(2019,第145页)对深度神经网络所能实现的目标给出了更为否定的评估。他们同意米切尔的观点,但更进一步,认为DNN所提供的只是其前身已经能够实现的更多功能。他们抱怨“机器学习人员大多强调学习,但未能考虑先天知识”(马库斯/戴维斯,2019,第144页)。同样,他们也引用了斯佩尔克的工作,认为:
人类很可能天生就理解世界由持久的物体组成,这些物体在时空的连接路径上移动,具有几何和数量感,并具备直观心理学的基础。或者,正如康德所言,一个先天的“时空复合体”对于正确认识世界是不可或缺的。
暂且不论康德以及马库斯和戴维斯对机器学习研究者的指控是否成立,需要强调的是,先天性并非斯佩尔克和凯瑞所确定的核心系统的必要特征。正如巴特菲尔(2020,第93-103页)所展示的,这些系统是先天的证据远非明确,只有在语法领域(乔姆斯基,1959)才提供了“刺激贫乏论证”,而发展心理学的其他研究则对核心系统的先天性持不可知论。因此,人们可以接受上述证据,支持将有限数量的核心知识系统区分开来的观点,但同时拒绝认为这些系统可以作为支持必要先天论的证据。
出于类似的原因,并且专注于开发具有通用智能的人工系统的目标,计算机科学家兼哲学家朱迪亚· Pearl(2018,第10页)认为,“机器缺乏对因果关系的理解”可能是赋予它们人类水平智能的“最大障碍”。他相信因果推理模块将使机器能够反思自己的错误,发现软件中的弱点,作为道德实体运作,并与人类自然地讨论自己的选择和意图。然而,尽管他持乐观态度,他仍认为当前的学习机器只具备“猫头鹰的智慧”。尽管有关机器学习系统快速进步的新闻——自动驾驶汽车、语音和面部识别系统等——层出不穷,但即使是最近的深度学习网络也仅“赋予了我们具有真正令人印象深刻能力的机器,但这些机器并不具备智能。差异是深远的,问题在于缺乏现实模型”(Pearl,2018,第30页)。
为了说明与人类理解水平相比所缺失的内容,Pearl 描绘了一个三层的“因果阶梯”(Pearl,2018,第23-52页),指出了学习者必须达到的三个认知层次,以真正理解因果关系。第一层也是最基本的一层,我们与许多动物共享,通过观察发现规律性。例如,猫头鹰可能观察到一只老鼠,并推测它接下来会出现的位置。这种推理仅通过关联进行,发现这些规律性使认知主体能够以“如果我看到……会怎样?”的问题为指导进行预测。只有部分这样的观察可能真正发现因果关系,而数据本身并不揭示因果关系。第二层认知水平的特征是行动,使认知主体能够对世界产生变化。行动是对物理因果秩序的干预。以 Pearl 的例子来说,“看到烟雾告诉我们关于火灾可能性的故事与制造烟雾完全不同”。人类经常使用这种干预,例如服用阿司匹林治疗头痛。动物界的工具使用说明了能够达到这一认知水平的生物范围。这一层次的指导问题是:“如果我做……会怎样?”最后一种认知能力,即反事实推理,能够使人类水平地理解因果关系。头痛消失后,我们可以询问原因并考虑不同原因的概率,实际上是在问“如果我做了……会怎样?”例如,“如果我没有服用阿司匹林,会发生什么?”这种思考开辟了新的可能性,将我们带入一个超越数据的虚构世界,在这个世界里,某些在现实世界中成立的事实可能不成立,甚至相互矛盾。这是人类智能的标志,能够促进科学理论、艺术的发展,并改进我们过去的行动。
所有这一切的核心在于,Pearl 认为当前的人工智能尚未超越第一层,因为即使深度神经网络(DNN)完全处于关联模式下,完全由数据流驱动。回想一下,通过数据驱动学习的直接结果来识别经验主义立场的方法。根据 Pearl 的观点,这种经验主义是有限的。即使成功的计算机程序 Alpha Go 也仅仅处理累积数据,其数据库由数百万场围棋比赛组成,“以便它可以弄清楚哪些动作与更高的胜率相关联”(Pearl,2018,第29页)。但这正是它所能做的全部,显然,它在记忆力方面远远超过了人类,但并未实现任何理解。相比之下,人类利用心理“现实模型”(Pearl,2018,第30页,另见 Mitchell,2020,第14章),Pearl 认为这是实现我们理解水平的必要成分。虽然许多人工智能研究人员试图仅依赖数据来完成所有认知任务,但 Pearl 强调“数据在因果关系方面是多么地愚蠢”(Pearl,2019,第16页)。
乐观主义者或悲观主义者是否正确是一个经验问题,而不是本文可以解决的问题。至少,局限性和挑战是或多或少已知的。克雷默(2021)对深度学习的潜力和局限性进行了调查,其中专家列出了40种局限性。在这个领域的成功取决于问题是人工智能系统是否应该表现出类似于人类的认知和智能,还是我们只要求这些系统在足够多的任务或领域中取得成功,无论它们实现这一目标的方式是否类似于人类。我在这一背景下强调了康德认知理论的潜在联系(及其相关性)以及它在经验主义和先天论之间的边缘立场。这是我们之前提出的第二个问题。一方面,鉴于他的范畴系统被描述为先验的(因此在任何经验之前系统地存在),他的立场将被归类为先天论。另一方面,鉴于他的范畴系统可以被视为领域通用的,他的立场将被归类为经验主义。因此,鉴于康德和当代认知科学家使用的不同术语系统,在这个问题上提出一个既忠实于康德著作又符合当今辩论中二分法特征的明确陈述是具有挑战性的。作为这篇综述的最后一点,介绍一种非常新的机器学习方法是有价值的,该方法特别借鉴了康德在认知架构中的观点,即理查德·埃文斯(2022,本卷第39-103页)所发展的立场。
3.2 开始理解!
像 Pearl 和 Mitchell 一样,Richard Evans 及其同事——来自 Deep Mind 公司(开发尖端人工智能的领先企业之一)的计算机科学家——提及了心理模型,并对其构成要素和约束条件进行了详细说明(Evans 等人,2021 年)。他们关注如何理解感觉序列的问题,并提及康德的理论,因为“康德明确定义了理解一个序列的含义:将该序列重新解释为由在时间上持续存在的、具有随时间变化属性的外部世界对象所组成的表征”(Evans,2022 年,本文集,第 40 页)。这“涉及构建一个符号因果理论,该理论既能解释感觉序列,又能满足一组统一性条件”(Evans 等人,2021 年,第 1 页)。更具体地说,他们提出“我们的理论必须表现出一种特定形式的统一性:理论的组成部分——对象、属性和原子——必须整合成一个连贯的整体[……] 我们认为,这个额外的统一性条件对于理论在预测、回溯和归因方面取得良好准确性是必要的”(Evans 等人,2021 年,第 2 页)。为了满足这些理解的统一性要求,Evans 建议将康德的《纯粹理性批判》解读为提供了一种认知架构,即“作为对理解感觉流所涉及内容的精确、可计算实现的描述”(Evans,2022 年,本文集,第 40 页)。也就是说,根据 Evans 的观点,可以将康德的认知架构以严谨的算法形式捕捉并实现在机器中,以便在实验中进行测试。18 虽然并非康德理论的所有细节都能通过这种方式被捕捉到,但其优势在于在计算机算法层面上提供了详细且精确的描述。也就是说,康德的先验心理学在此成为机器学习系统的模板,需要将涉及狭义认知的各种能力及其相互作用转化为一个程序。就具体成果而言,这些能力分别是:具有形成判断能力的理解力对应于一种无监督学习程序;将直观归摄于概念的判断力则通过二进制神经网络得以实现;而负责(且不可或缺地)直观之间联系(生产性综合)的想象力则以一组非确定性选择规则的形式得以体现(Evans,2022 年,本文集,第 95 页)。第四个也是最后一个条件是感性直观,它为认知架构提供输入。
在一篇更近期的文章中,
Evans 等人(2021 年)描述了一种他们称之为“自我意识引擎”的计算机系统,该系统旨在执行“无监督程序合成”(Evans 等人,2021 年,第 2 页),并在一个统一的系统中实现各种认知能力。19 深入探讨这一实现的丰富细节超出了本评论的范围,必须留待其他场合再做讨论,但读者可以自行查阅 Evans 在本文集中的贡献(Evans,2022 年,本文集,第 2 章)。这一要求明确超出了 Pearl、Mitchell 以及 Marcus 和 Davis(见上文)等“悲观主义者”所批评的纯粹数据驱动的典型经验主义方法。但这并不意味着 Evans 因此将他的自我意识引擎视为 Marcus 和 Davis 所要求的那种先天论系统。关于乐观主义者与悲观主义者之间的争论,Evans 反对 Marcus 将康德解读为先天论者的观点,因为所认为的先天内容是什么,这一点至关重要。也就是说,声称概念是先天的,还是声称能力(即产生这些概念的能力)是先天的,这两者之间是有区别的。康德据称并未将范畴视为先天概念:“纯一元概念并非作为思想语言中的原始一元谓词‘预先设定’。唯一被预先设定的是基本能力(感性、想象力、判断力以及判断能力)[……]。范畴本身是后天获得的——当理解一个特定感觉序列时,从具体纯关系中推导而来”(Evans,2022 年,本文集,第 74 页)。Evans 遵循 Longuenesse(2001 年)的观点,该观点基于康德写给同时代人 Eberhard 的一封信;在信中,他区分了“经验获得”和“原始获得”,后者适用于直观形式和范畴。Evans 正确地指出,就对象的认知而言——就像“我思”一样——范畴只有通过知性积极(自发地)应用才能发挥作用,因此可以认为,通过逆向工程的过程,它们必须被预先假定,是经验的先验条件。但这与以下观点相容,即鉴于它们的先验地位(并且鉴于即使在没有感性输入的情况下,它们也可以被应用,尽管不能产生狭义上的认知,但仍然可以产生广义上的认知,如上所述),“它们的根基在于心灵的一种先验(理智的、自发的)能力”(Longuenesse,2001 年,第 253 页)。与 Evans 相反,Barsalou(1999 年,第 581 页)坚定地将康德归类为先天论者,他认为康德“假设先天机制解释和组织图像”。如果这些机制被认为是范畴,那么这种解释就与康德在写给 Eberhard 的信中的阐述相矛盾,但我们无需在此解决这个问题。
范畴的一种运用方式在《纯粹理性批判》第一版的图式章中有描述。因此,当我们“在只接触过一系列特定且独特的范例后,如何形成三角形的一般概念”时,我们被迫要将这些范例“统一”起来(Buckner,2018 年,第 8 页)。康德的回答可以表述为感官与概念表征的结合,他认为统一性概念(范畴)在与一系列范例结合时被“图式化”了。在康德的术语中,图式是一种介于直观和概念之间的第三种表征,能够使概念适用于给定的直观。同样,图式化是将知性的概念应用于现象的过程。康德区分了像“椅子”这样的经验概念的图式和像“三角形”这样的纯粹感性概念(来自几何学)的图式,这是 Buckner 的例子。在康德的理论中,图式是想象力产生给定概念的图像的任务的结果(《纯粹理性批判》,AA: A140/B179)。虽然知性产生一个像规则一样的概念,但想象力产生一个总体的形态(该概念的图式)和一个具体的图像,无论是自由联想还是基于感性输入。图式是感性的,因为它们是图像性的表征,但它们是普遍的而非仅仅个别的,由概念提供的规则引导。关于图式的讨论就到这里,因为这个重要的概念有许多解释上的问题(关于进一步的讨论,可参见 Pippin,1976 年,Pendlebury,1995 年和 Matherne,2014 年)。20 当然,结果是,这种考虑使我们从纯粹的经验主义解释转向了一种结合了理性主义元素的混合解释。这是一个值得在其他场合深入研究的领域。
康德的认知理论与典型的经验主义方法的另一个不同之处在于其核心概念——自发性。正如 Evans 所指出的,除了被动的感性之外,所有其他参与狭义认知的能力都包含一个自发的元素。对于 Evans 的解释来说,关键在于自发性是不受任何限制的,认知主体“不断地构建她可以执行的程序”,并且“可以自由地构建任何规则——只要它们满足统一性条件”(Evans,2021 年)。然而,Evans 很清楚地意识到,康德认为的一些重要特征要么在自我意识引擎中没有被表示出来,要么被不同地表示了,例如空间、时间和自我意识。因此,尽管康德认为知性的自发性通常是一种自我意识的活动——即一种意识到自身的活动(B 153),这使得进行自发综合的主体能够意识到“在……结合……的表征中意识的同一性”(B 133)——,这在 Evans 的程序中尚未实现。Evans 本人也承认,为了让自我意识引擎更符合康德的原始理论,还有更多的工作要做。但对于他的实际目的来说,更重要的是程序的性能是否需要进一步的元素。当然,这是一个经验性的问题,即 Evans 的康德式机器学习方法是否优于竞争的深度学习架构,或者替代方法是否足够或能产生更好的结果。但鉴于本文的目的是概述康德的认知观念过去和现在仍然具有影响力的地方,看到他的许多想法仍然非常活跃和相关是令人着迷的。
4 结论
在本文中,我进行了调查,旨在概述认知科学和人工智能研究人员开发的各种方法,重点关注康德认知理论对这些方法的影响。事实证明,康德哲学的许多元素都具有影响力,并且在寻找正确的认知解释和实验方法的过程中仍然相关。本文的目的并非忠实于康德的所有文本并进行康德解释学的研究。相反,本文是一次尝试,旨在探讨认知科学家和当代心灵哲学家如何从康德的哲学中汲取有用的思想,以解决诸如人工系统理解感觉输入需要什么,或开发如预测处理范式这样的认知模型以捕捉大脑中的神经处理等问题。这是一个引人入胜的研究领域。时间会证明康德心灵哲学的哪些元素将在最佳认知理论和具有通用智能的人工系统的发展中保持成果和必要性。
原文链接:https://library.oapen.org/bitstream/handle/20.500.12657/57223/1/9783110706611.pdf#page=48
热门跟贴