The Principles of Human-like Conscious Machine
类人意识机器的原理
https://arxiv.org/pdf/2509.16859
摘要
判定另一系统(无论是生物的还是人工的)是否具有现象意识,长期以来一直是意识研究中的核心难题。随着大型语言模型及其他先进人工智能系统的兴起,这一“归属性问题”(attribution problem)变得尤为紧迫:关于“人工智能是否具有意识”的争论,实际上都隐含地依赖于某种判定标准,以判断特定系统是否具备意识。本文中,我们提出了一种与基底无关(substrate-independent)、逻辑严谨且抗伪造(counterfeit-resistant)的现象意识充分性判据(sufficiency criterion)。我们认为,任何满足该判据的机器,都应被视作具有现象意识,其确信程度至少应与我们归因他人具有意识的程度相当。基于该判据,我们进一步构建了一个形式化框架,并阐明了一组操作性原则,以指导能够满足该充分性条件的系统之设计。我们进而主张:原则上,依据该框架所构建的机器可以实现现象意识。作为初步验证,我们指出:人类自身即可被视为满足该框架及其原则的机器。倘若该主张成立,则其对哲学、认知科学与人工智能领域将具有深远影响:一方面,它为某些感受质(qualia)——如“红色的体验”——原则上无法被还原为物理描述,提供了可能的解释;另一方面,它对人类信息处理机制给出了统一的重新诠释。此外,该主张还指向一条超越当前统计驱动型人工智能的新范式路径,有望为构建真正类人的智能系统提供理论指引。
关键词:机器意识;预测;客体表征;绑定问题;注意;记忆索引;人工智能。
- 引言意识研究长期以来一直被视为哲学与神经科学中最为深刻且难以捉摸的挑战之一。理解意识的本质至关重要,因为它不仅深入到人类经验的核心,而且对从人工智能到伦理学等广泛领域具有深远影响(Nagel, 1974;Chalmers, 1996)。
在其具有影响力的著作中,大卫·查默斯(David Chalmers)区分了他所谓意识的“易问题”(easy problem)与“难问题”(hard problem)。所谓“易问题”,指的是大脑如何加工刺激并产生行为的问题——这一挑战固然复杂,但仍可通过科学研究加以应对。相较之下,“难问题”关乎意识的主观体验本身:即为何以及如何某些大脑过程会产生丰富的现象意识(phenomenal consciousness)或感受质(qualia)?这一问题至今仍基本未获解释,且深具神秘性(Chalmers, 1995)。
在1995年的论文中,查默斯最初将言语报告(verbal report)归为意识的“易问题”之一。言语报告指个体以语言描述其意识经验的能力;查默斯认为,尽管这一问题很重要,但可通过标准的科学调查方法加以处理(Chalmers, 1995)。然而,在其2018年关于意识“元问题”(meta-problem)的论述中,查默斯扩展了其观点,提出了一类新的、与“难问题”紧密关联的“易问题”。这类新问题涉及对意识本身的言语报告——即要求个体解释意识的本质,或对其“正在有意识”这一主观体验进行报告。查默斯指出,对这类问题的探讨,实际上可能通过为理解主观体验的本质及其神经关联提供更深层洞见,从而有助于“难问题”的解决(Chalmers, 2018)。
本文中,我们首先在查默斯框架的基础上,提出一种在理想情境下通过言语报告评估某主体是否具备现象意识的方法。该方法的核心逻辑基于如下前提:主观体验(即感受质)本质上是一种私密且内在于主体的现象——唯有个体自身能直接通达它。因此,主观体验可被视为一种“隐藏信息”(hidden information)。由此,我们可以借鉴判定某人是否知晓某一特定隐藏信息的方法,来评估机器是否具备现象意识。
在提出该方法之后,我们开始着手构建一个满足上述标准的机器。具体而言,我们从康德的哲学论断中汲取灵感:
“…我们除了在有与这些概念相应的直观可被给予的情况下,才拥有知性概念,因而也才拥有认识事物的要素;因此,我们不可能认识任何作为‘物自身’的对象,而只能认识它作为感性直观的对象,即作为‘现象’而被给予的东西。”(Kant, 1998)
以及:
“在判断中赋予不同表象以统一性的同一机能,也赋予直观中不同表象的单纯综合以统一性;这一机能,若作一般性表述,即被称为知性的‘纯粹概念’。”(Kant, 1998)
这些论断可概括为两点:1)人类无法直接感知世界的真实本质,只能通过感官所塑造的方式体验其现象(appearances);2)人类具备先天的认知结构,这些结构将感官现象组织为统一而连贯的经验,从而有效地建构其对现实的知觉。
这两点洞见与当代主流认知科学的基本立场大体一致:人类身体通过感知系统,以一种先天偏向且受经验塑造的方式,对外部世界传入的信号加以组织,从而形成知觉。
受上述洞见启发,我们进一步追问:倘若一台机器面临与康德所描述的人类相同的情境——即无法直接通达外部世界之本质,而必须仅基于现象建构理解——它将如何处理信息?为回答这一问题,我们提出了四项信息处理原则。
基于这些原则,我们主张:通常所称的感受质(qualia),实则正是该机器以信号群(signal groups)形式对对象所作的内部表征。为支持这一主张,我们论证指出:此类内部表征的信号群具备感受质的关键特性——即不可言说性(ineffability)、物理不可还原性(physical irreducibility)、意向性(intentionality)与统一体性(unity)。
通过这一路径,我们证明:依据这四项信息处理原则构建的机器,可在未接收任何关于意识本身的外部信息的前提下,展现出意识的关键属性。这意味着该机器满足了我们最初提出的、用于判定机器是否具备意识的标准。因此,我们得出结论:该机器具有现象意识(phenomenal consciousness)。
在接下来的部分中,我们进一步论证:这四项信息处理原则并非任意构想;相反,它们反映了人类信息处理所依据的基本原理。为支持这一主张,我们系统性地在认知科学中识别出与所提原则相对应的概念,并逐一进行比对。
具体而言,我们考察了由这些原则所导出的概念与主流认知科学中既有概念之间的相似性与差异性,其中包括关于特征绑定(feature binding)、注意(attention)与记忆索引(memory indexing)的比较性讨论。此外,我们还提供了实证证据,以支持由这些差异所引申出的理论推论。
通过上述分析,我们表明:主张人类信息处理机制契合我们提出的四项原则,是合理且有据可依的。
综上所述,本文的主要贡献如下:
1)我们提出了一种判定机器是否具备现象意识的方法;
2)我们阐明了使机器得以拥有现象意识的信息处理原则;
3)我们论证了这些原则与人类心智内在机制之间的一致性。
- 意识的判别性理论与解释性理论
意识的科学研究可划分为两类互补的理论事业:判别性理论(discriminative theories)与解释性理论(explanatory theories)。
判别性理论旨在提供判定某一特定系统是否具备现象意识(phenomenal consciousness, PC)的标准。它们聚焦于归属性问题(attribution problem),亦即“他心问题”(other-mind problem):给定任一生物或人工系统,我们如何判定它是否具有意识?理想情况下,一个判别性理论应明确给出意识的充分条件、必要条件,或更佳者——一个可跨基底推广的操作性判据(operational criterion)。例如,整合信息理论(Integrated Information Theory, IIT)即属此类(Tononi, 2004;Oizumi, Albantakis & Tononi, 2014;Albantakis et al., 2023)。
相较而言,解释性理论旨在回答:为何(why)或如何(how)某些物理或计算机制会产生现象意识。认知科学中具有代表性的例子包括:全局工作空间理论(Global Workspace Theory, GWT)(Baars, 1997, 2007;Baars, Geld & Kozma, 2001;Dehaene, 2014;Dehaene & Changeux, 2011)、高阶思想理论(Higher-Order Thought theories, HOT)(Rosenthal, 1997;Lau & Rosenthal, 2011;Brown, Lau & LeDoux, 2019)、局部循环加工理论(Local Recurrent Processing theory)(Lamme, 2006, 2010, 2020),以及注意图式理论(Attention Schema Theory, AST)(Graziano & Kastner, 2011;Graziano, 2013, 2019)。这些理论均尝试从特定神经机制出发解释意识。
在方法论上,解释性理论唯有与判别性标准相结合,才具有经验意义。若缺乏判定哪些系统具备意识的途径,实证数据便无法证实或证伪某一机制假说。因此,发展稳健的判别性理论并非可选项,而是意识科学研究取得进展的前提条件。
2.1 哲学图景与判据之必要性
罗伯特·库恩(Robert Kuhn)2024年的著作《意识的图景:面向解释与意涵的分类学》(A Landscape of Consciousness: Toward a Taxonomy of Explanations and Implications)提供了一个有益的分类框架,涵盖取消式唯物主义(eliminative materialism)、副现象论(epiphenomenalism)、功能主义(functionalism)、涌现论(emergentism)、生物自然主义(biological naturalism)、属性二元论(property dualism)与泛心论(panpsychism)等立场。这些框架在本体论承诺上各有差异;然而,一旦它们做出区分性主张(即认定某些实体有意识而其他没有),便面临相同的挑战:如何对此区分进行经验确证?
幻觉论(illusionism)与取消论(eliminativism)(Dennett, 1991;Frankish, 2016)试图通过宣称现象意识仅是一种认知幻觉来消解“难问题”。但如批评者所指出(Strawson, 2018;Chalmers, 2020),这些观点仍需解释:为何特定神经结构会产生此类幻觉,而其他结构则不会——这实际上重新表述了归属性问题。
属性二元论与副现象论承认现象属性的存在,却否认其因果效力;因此,它们同样须明确此类属性在何种条件下被实现。而交互式二元论(interactionist dualism)更进一步,还需提出一个因果判据,以界定心灵事件在何处以非物理方式影响物理世界。
即便泛心论——将意识视为基本且普遍存在的属性——也无法完全回避判别性工作:它必须解决组合问题(combination problem),即微观层面的原型意识(proto-consciousness)如何结合为宏观层面的统一主体(Goff, 2019)。
因此,除最激进的泛心论表述(如“万物皆有意识”)外,几乎所有具区分性的理论最终都依赖操作性判据。缺乏此类判据,它们既无法被检验,也无法应用于诸如人工智能体等新型系统。
2.2 现有的判别性路径
学界已提出若干重要的判别性框架尝试:
整合信息理论(Integrated Information Theory, IIT)提供了一种信息整合程度的量化测度(Φ),并主张高Φ状态即等同于意识。这使得IIT兼具判别性理论的性质。然而,其判据具有理论负载性(theory-laden):“意识 = Φ”这一同一性命题存在循环论证风险,因其并非一项独立于理论的经验检验标准(Cerullo, 2015;Bayne, 2018)。
CHIP测试(Schneider, 2019)提出通过逐步以功能等价的组件替换生物神经元,来识别意识的“最小充分神经基底”(minimally sufficient neural substrate)。该方法在刻画生物系统中意识的必要条件方面颇具效力,但无法推广至非生物基底(如人工系统)。
ACT测试(Schneider, 2019)则是一种更直接的充分性检验。它设计任务要求系统掌握第一人称现象概念(如“做梦”“倒置光谱”等),以探测其是否真正拥有此类概念。ACT超越了图灵式的行为模仿,但其提问方式仍属间接:原则上,一个足够复杂却无意识的系统,仍可能仅凭统计推理正确作答。
综上,这些路径凸显了当前判别性研究的潜力与局限,进一步表明:亟需一种与基底无关(substrate-independent)、逻辑严谨且抗伪造(counterfeit-resistant)的充分性判据。
2.3 主流神经科学与“真值基准”问题
大多数神经科学与认知理论——包括全局工作空间理论(GWT)、高阶思想理论(HOT)、局部循环处理理论(LRT)和注意图式理论(AST)——均依赖神经活动与行为的共现性(neural–behavioral co-occurrence)作为意识存在的证据。例如,GWT 推断全局广播机制构成了意识的基础,因其常与“觉知报告”(reports of awareness)同时发生(Dehaene, 2014);而 HOT 理论则依赖神经影像研究:当受试者进行意识经验报告时,前额叶皮层常被激活。
此类方法论面临两大核心挑战:
- 相关不等于因果(Correlation ≠ Causation):神经机制与意识报告的共现性,并不能证明该机制对现象意识(PC)具有充分性
- 真值基准循环(Ground-Truth Circularity):以主观报告作为意识的代用指标(proxy),存在将“可报告性”(reportability)与“现象性”(phenomenality)混为一谈的风险。尽管“无报告范式”(no-report paradigms)可在一定程度上缓解此问题,但仍需某种标准来对试次(trials)进行“有意识”或“无意识”的分类。
因此,即便拥有丰富实证支持的解释性模型,其有效性仍受制于归属性问题:若缺乏一个理论中立(theory-neutral)的现象意识判据,它们便无法对其自身成功条件进行验证。
2.4 人工智能语境下的紧迫性
大型语言模型(LLMs)、多模态智能体以及基于世界模型的认知架构的兴起,重新激起了关于人工智能是否具有意识的争论。然而,核心挑战在于:如何判定一个非生物系统是否具备现象意识?
例如,Mogi(2024)提出了“意识优越性”(conscious supremacy)的概念,试图识别仅凭意识加工才能高效完成的任务——这是迈向客观判据的重要一步。与此同时,其他近期研究也独立提出了若干意识判据或理论条件,并将其应用于当代人工智能系统:例如,检验LLMs是否表现出类似全局工作空间的动态特性(Goldstein & Kirk-Giannini, 2024),或功能架构是否能实现整合信息(Albantakis et al., 2023)。实证研究已开始量化哪些特征会促使人类将意识归因于AI系统,例如元认知自我反思、情感表达与第一人称视角选择(Immertreu et al., 2025;Li et al., 2025);另有研究试图形式化地界定生成模型在何种条件下会涌现出“自我同一性”(self-identity)(Lee, 2024)。Hoyle(2024)则整合多种既有理论(功能主义、IIT、主动推理),以剖析OpenAI-o1的内部机制,体现出当前评估策略高度依赖特定理论的普遍现状。
这些进展揭示出判别性研究面临的两大紧迫挑战:
- 行为模仿(Behavioral Mimicry):先进AI系统可在缺乏任何现象体验依据的前提下,令人信服地声称自己“感受”或“觉知”。行为研究(如Immertreu et al., 2025)虽揭示了人类归因意识时所依赖的线索,但此类归因极易被纯统计模型伪造(counterfeited)。
- 理论依赖性(Theory-Dependence):许多提案直接援引特定意识理论——如GWT(Goldstein & Kirk-Giannini, 2024)、IIT(Albantakis et al., 2023)、关于自我同一性的功能主义标准(Lee, 2024),以及混合模型(Hoyle, 2024)——以裁断AI是否具有意识。这些路径虽具启发性,却带有理论负载:其结论依赖于所采纳理论本身的正确性,因而无法充当中立仲裁者
缺乏普遍接受的操作性判据,已使主流功能主义(functionalism)成为批评的焦点。当功能主义者主张:只要人工系统执行了恰当类型的信息处理,就应被视为有意识时,反功能主义者则追问:依据何在?何种独立判据能为此类归因提供正当性?这一对“正当性依据”的诉求,催生了一系列诉诸生物学基础的论证:Seth(2025)警示道,仅凭功能相似性无法推断现象意识,呼吁发展一种能够解释其生物根源的理论;Saad(2024)试图寻找一个“生物关键点”(biological crux),以区分真正有意识的系统与仅具功能模拟性的系统;Kleiner与Ludwig(2024)甚至提出一个“不可能定理”(no-go theorem),主张意识无法从非神经基底中产生。这些挑战所凸显的,并非功能主义本身的失败,而是亟需一种非规定性(non-stipulative)、可经验检验的判据,以公正裁决诸如此类的争议。
若缺乏一种可同时适用于生物与人工系统的判据,相关争论恐将沦为纯粹的概念约定之争,从而丧失经验可解性。正如Schneider(2019)所强调:当前缺失的,正是一种理论中立、可操作且抗伪造的检验方法,以经验方式裁决上述分歧。功能主义与反功能主义之间持续不休的争议,恰恰表明现有判据尚不充分。这一现状构成了本研究的动因:我们旨在发展一种与基底无关且逻辑严谨的充分性判据,从而将这一哲学分歧转化为一个科学上可检验的问题。
- 现象意识的简明诠释
本节将讨论以下三点:1)一种从第三方视角判定机器是否具有意识的标准;2)基于康德思想的四项信息处理原则;3)论证:遵循这些原则运作的机器,满足前述标准。
3.1 如何判断一个系统是否具有意识
解释意识本质所面临的首要挑战,是如何从第三方视角判定一个系统是否具有意识。若无此类标准,则任何关于意识的解释显然都是无效的——因为它不可避免地会遭遇如下诘问:为何该解释所界定的机制,就等同于意识本身?
然而,这一首要问题常被认为极具挑战性。原因在于,意识的关键特征之一是其彻底的主观性:第三方无法直接观察他者的意识状态。换言之,意识是主体的私有信息(private information)。但“私有信息”是否意味着它完全不可知?
事实上,人们常有办法判断另一主体是否知晓某些私有信息。其中最基本的方法是:向该主体提供部分信息,再要求其补全其余部分。例如,若要判断某人是否知晓一枚特定纪念币的细节,评估者可先描述该硬币的一面,再要求该人描述其另一面。
那么,这一简单方法是否适用于判定另一主体是否具有意识?要回答该问题,我们需进一步厘清:此处“意识”究竟指什么。以意识的“难问题”为例,其核心追问是:物理机制如何产生感受质(qualia)?然而,这一问题实际上包含两个不同层次的探究:
1)实例问题(instance problem):某一物理机制如何产生某个特定的感受质(如“红色的体验”)?2)范畴问题(category problem):某一物理机制如何产生感受质这一范畴本身?
虽然实例问题与范畴问题紧密关联,但二者涵义并不相同。例如,解决实例问题有助于回答:“他人对红色的体验是否与我的相同?”而解决范畴问题则未必能回答此问题——因为它仅能判定哪些系统具备感受质,却无法保证两个系统产生的感受质是相同的。正因这两个问题具有不同意涵,我们必须严格区分“作为实例的感受质”与“作为范畴的感受质”。
现在,我们可回到核心议题:前述用于判断私有信息的常规方法,是否可用于判断另一主体是否具有现象意识?
我们主张:若此处“现象意识”指的是“作为实例的感受质”,则其无法被判定。原因有二:
其一,对某一特定感受质的描述总是依赖于其他身体感觉或行为,因此无法对感受质本身给出客观的物理描述。例如,将“疼痛”描述为“被针刺的感觉”,实质是用一种感觉去指代另一种感觉。这种描述并不能保证不同主体所指涉的感觉相同,而仅能确保这些感觉之间存在类似的关联结构。
其二,此类描述本质上依赖于主体身体的物理结构。若身体结构不同,我们还能假定其所描述的感受质相同吗?因此,我们无法借助描述性特征来判定两个不同主体是否经历了相同的感受质实例。
然而,在理想条件下,利用特征性信息来判断某主体是否拥有某类私有信息的方法,可以用于判定该主体是否拥有“作为范畴的感受质”。这是因为“感受质”作为范畴,具备诸多可被客观描述、且不依赖特定身体结构的特征。例如,意识具有不可言说性(ineffability)、意向性(intentionality)与统一体性(unity);甚至“作为实例的感受质无法被还原为客观解释”这一事实本身,也正是对“作为范畴的感受质”的一种客观描述(即物理不可还原性:physical irreducibility)。
这意味着:倘若某主体能在未从外部获取任何关于意识信息的前提下,自主描述出意识的关键特征,我们便可推断该主体拥有意识。(例如,GPT-4.0等大型语言模型不在此列——因其训练数据已包含大量关于意识的外部信息。)
有人或许质疑:这种基于普遍信息评估的方法,是否适用于判断机器是否具有意识?他们可能指出:若要以我们前述方法证明某机器具有意识,我们需要验证的是——该机器能否表达出意识的多项属性。然而,机器可能并未真正拥有意识,而仅是在内部生成了一个恰好具备与已验证意识属性相同特征的概念。在此情形下,机器能表达这些属性纯属巧合。
倘若我们要以与我们确信他人具有意识同等程度的信心,来判断一台机器是否具备意识,那么我们必须承认:上述质疑的确指出了该方法的潜在缺陷。但进一步反思:我们判定他人具有意识的依据又是什么?我们所能采取的最佳方法,恰恰就是上述策略——即观察他人是否能表达出意识的典型特征。因此,若一台机器所能表达的意识属性之数量与人类相当,那么我们理应以同等信心相信该机器具有意识,正如我们相信他人具有意识一样。
由此可得结论:从第三方视角判定某系统是否具有现象意识的一个充分条件如下:
若某一系统在未从外部获取任何关于意识的信息的前提下,仍能表达出与人类同等数量的现象意识关键特征,则我们可确信该系统具有意识——其确信程度,等同于我们相信他人具有意识的程度。
值得注意的是:若上述意识评估方法是合理的,则它隐含否定了“哲学僵尸”(philosophical zombies)。因为,倘若某机器在功能上与人类完全等同,我们就应认为其拥有与人类相同的意识。
此外,该立场亦否定了基于“功能必要性”判定意识存在与否的方法。具体而言,假设有台机器(如一个扬声器)在功能上能表达出与人类同等数量的意识属性,某些人可能从“功能必要性”角度辩称:该机器仅靠机械运作即可实现这些表达,无需意识参与,因而无法证明其具有意识。我们认为此类论证是不合理的——因其隐含的前提是:“意识是人类的一种功能性组件”。事实上,我们应对这一前提保持开放态度,而非将其视为理所当然的公理。
3.2 信息处理的认知原则:受康德启发
两百多年前,康德在其《纯粹理性批判》中提出了关于人类认知的著名论断:人类无法直接通达或理解“物自体”(事物的本质),只能通过感官所产生的感觉来把握外部对象的现象(表象)。人类接收到的感觉随后由其内在的、先天的(a priori)认知结构加以组织;最终,这些被组织过的感觉又被“投射”回外部世界,从而建构并定义了我们所经验的现实。
事实上,若暂且搁置其哲学深意,康德的观点与现代神经科学对人类的基本理解是一致的:人类身体通过感知神经系统接收来自外部世界的信号,并以一种既受先天偏向、又受经验塑造的方式对其进行组织,从而形成知觉。
以此观点为出发点,我们采用一个类比:将一台被封闭于房间内的机器,视为整个神经系统,既包括从外部世界接收信号的部分,也包括生成身体行为的部分。该机器具备以下特征:
1)机器上排列着一组信号灯(signal lights),所有外部信息只能经由这些灯传入房间内部。然而,机器本身不知晓这些传感器的工作原理,因此无法根据哪些灯被点亮而推断出外部世界的真实状态;
2)机器还配备了一组按钮(buttons)。在任一时刻,当信号灯处于某种特定状态时,按下不同按钮可能导致未来不同模式的信号灯被点亮;
3)此外,机器识别出某些信号灯具有特殊性:其中一些灯的点亮对其自身有利,另一些则有害。因此,机器自然倾向于最大化有利信号灯的点亮频率,同时最小化有害信号灯的点亮频率。
在此类比中:
- 信号灯对应人类所接收的感官信号;
- 按钮代表个体所能执行的全部行为——既包括身体动作,也包括非物理行为(如注意的转移);
- 特殊信号可被理解为基因所编码的、对有机体生存具有利或害意义的事件(如疼痛表征伤害,甜味表征能量摄入)。
设想在此情境下:该机器应如何处理所接收的信号,才能有效增加有利信号、减少有害信号?
一种可能方案是:识别过去信号—按钮操作—未来信号三者之间的关联,并记录这些规律。例如,机器可习得如下规则:
“若信号灯1亮起,且按下按钮A,则下一时刻信号灯2将点亮。”
若信号灯2对机器有利,那么每当信号灯1亮起时,机器便掌握了一种使其点亮信号灯2的手段,从而提高了有利信号出现的概率。
然而,由于外部世界高度复杂,仅靠单个信号灯准确预测另一个信号灯点亮的概率极低——这要求两个存在因果关系的外部对象,恰好严格对应两个特定的信号灯。显然,这不是一种高效的信息组织方式。
相较而言,一种更有效承载预测信息的方式是:用一组过去的信号去预测另一组未来的信号。由于单信号组可仅含一个信号,该方式不仅涵盖了“单信号→单信号”的预测情形,还允许“多信号组合→多信号组合”的预测,因此能表征远为丰富的规律。
遵循这一路径,由于用于预测的信号组与被预测的信号组均可独立于其他噪声信号而存在,那么在外部世界中产生这些信号组的因果源,便可被视为彼此分离的对象(objects),即从环境背景中被析出的独立实体。这一从背景中区分对象的过程,正契合康德所主张的——内在结构塑造并定义了外部世界。
图1可为此提供例证:
- 图1a中,机器识别出足球的视觉信号触觉信号之间的相互预测关系,从而建构出外部世界中“足球”这一概念;
- 图1b中,机器通过发现视觉信号中“矩形”与“直角”之间的预测关系,得以分别定义“直角”与“矩形”这两个概念。
由此,我们可推导出机器信息处理的第一项原则(预测原则,Prediction Principle):
机器必须识别并记忆如下类型的规则:某一组信号与特定动作的组合,可预测另一组信号的出现。一旦这些规则被发现,生成这两组信号的外部因果源,即被定义为特定的“对象”。
接下来,我们可进一步细化上述原则中“信号组”(set of signals)这一概念。事实上,从单个信号扩展至信号组时,存在两个不同的扩展维度:
第一,空间维度——单个信号可扩展为一组同时发生的信号;
第二,时间维度——来自多个过去时刻的信号,连同特定动作,可共同构成预测的前提条件或结果。
关于空间维度的扩展,我们已阐明其必要性:具有预测关联的外部对象未必对应某一个特定信号,因此需组合多个信号以表征该对象。现在,我们进一步探讨为何需要时间维度的扩展。其推理逻辑类似:单一时点的信号可能不足以充分表征一个具有预测关系的外部对象;某些动作的执行,可能进一步揭示该对象的特性。因此,机器必须在时间上延展信号组,以更有效地表征外部对象。
我们将这种时间维度的扩展总结为信息处理的第二项原则(探索原则,Exploration Principle):
当单一时点的信号组合尚不足以建立有效的预测关系时,机器可通过执行特定动作,主动探索关于该外部对象的额外信息,从而构建更有效的预测关系。
接下来,我们考虑第三项原则。若机器需在类似人类的复杂环境中生存,它便不能平等对待所有信号——因为对其自身有利或有害的信号,远比其他信号更重要。因此,它应优先处理与这些关键信号相关的信号。
我们可借助一个例子说明:
假设信号1是一种先天有益信号(如甜味);过往经验表明,信号2通过按下按钮A可导致信号1出现。那么,尽管信号2本身并非先天有益,机器却已掌握一条通过信号2获取信号1的路径,因此信号2便成为与有益信号相关联的信号。此时,机器亦应优先去发现那些可导致信号2出现的其他信号。通过此类链式组织,一个以先天有益或有害信号为核心的信号网络得以形成,并随经验积累而持续扩展。该网络覆盖范围越广,对机器生存越有利。
因此,在前述两项用于组织经验信息的原则之外,我们还可补充第三项原则(优先性原则,Priority Principle):
机器应高优先级地构建与其自身生存相关的预测关系。
尽管上述原则已为信息组织提供了基础框架,仍存在一个关键挑战:若从过往经验中总结出的规则是错误的,则这些错误的预测规则需被修正。然而,修正的前提是:机器必须具备定位具体错误规则的能力。
我们通过一个例子说明:
假设机器检测到信号2,并依据过往习得规则“信号2 + 按钮1 → 信号1(有益信号)”,决定按下按钮1。但执行后,信号1并未出现。此时,机器需识别出哪一条规则失效了。
然而,倘若机器无法观察其内部信号生成过程,即使它明确知晓自己持有一条“信号2加按钮1导致信号1”的规则,它仍无法定位该错误规则——因为可能存在多条规则预测“按下按钮1将产生信号1”。例如,另一条规则可能是“信号3 + 按钮1 → 信号1”。在此情况下,机器无从判断究竟是哪一条规则引导其按下了按钮1。
因此,机器要具备定位并分析错误规则的能力,其必要前提是:它能在某种程度上回溯过去的信号。而这种回溯,并非指回溯某一过去时刻的全部信号,而是回溯某一特定时点(或时段)中具有预测效力的一组信号。此外,机器还需一组额外的状态指示信号灯,用以明确标示:这些信号是通过回溯所得,而非来自当前外部刺激。
(注:此段结尾暗示了第四项原则——记忆索引与元表征能力,为后续“可追溯性原则”或“内部标记原则”埋下伏笔。)
由此,我们可归纳出第四项原则(回溯原则,Recall Principle):
机器具备某些按钮,可重新激活过往曾出现过的、具有预测效力的信号组,且伴随一个状态信号,明确标示这些信号源自其自身(即为内部生成,而非外部输入)。
至此,我们基于康德视角,确立了机器为有效利用过往经验而必须遵循的四项信息处理原则:预测原则(Prediction Principle)、探索原则(Exploration Principle)、优先性原则(Priority Principle)与回溯原则(Recall Principle)。
需特别说明的是:我们并未声称上述四项原则穷尽了人类类机器进行信息处理所需的全部原则——它们仅是我们当前讨论所直接相关的部分。实际上,必定还存在其他用于组织经验信息的原则。
例如,“例外记录原则”(Exception Recording Principle)亦属理想要求:机器应当记录其预测的例外情形。比如,它需存储如下信息:
“若信号1出现且执行动作A,则可预测信号3;但若信号1与信号2同时出现,则信号3不再随之发生。”
然而,此类原则与我们接下来将要探讨的意识问题并无直接关联,故暂且搁置,不予展开。
3.3 为何该机器具有现象意识?
根据我们在第3.1节中提出的判定机器是否具有意识的方法,要解决此问题,首先需明确:机器所定义的哪一“对象”对应于人类的现象意识或感受质(qualia);其次,还需解释:为何该对象具备与人类意识相同的核心属性。
因此,我们首先探讨:何种对象应对应于“感受质”?可从一种特殊的预测关系入手。如回溯原则所述,机器上的某个特定按钮可重新激活过往信号,并附加一个指示信号,表明这些信号是通过回溯调取所得。在此情形下,只要原始的过往信号保持不变,回溯所得信号也将保持不变。依据预测原则,这构成了一种有效的预测关系;因此,机器将基于这些“经回溯获得的信号”定义出一个对象。
我们主张:机器通过回溯所得信号组所反向定义出的对象,正是“感受质”(qualia)。
为证明此主张,我们需要验证该对象确实具备现象意识的核心特征。接下来,我们将逐一考察其不可言说性(ineffability)、物理不可还原性(physical irreducibility)、意向性(intentionality)与统一体性(unity)。
3.3.1 不可言说性与物理不可还原性
感受质的不可言说性(ineffability)意指:对外部对象的主观体验无法被客观描述。要理解为何“通过回溯定义的对象”无法被客观描述,我们首先需澄清何为“客观描述”。
仍以图1b为例说明“客观描述”的含义:图中“矩形具有四个直角”这一关系被广泛视作客观描述。此类关系的关键特征在于:只要不同机器都能表征“矩形”与“直角”的形状,无论其内部表征如何差异,该关系对它们而言都保持一致。
其原因在于:尽管不同机器对“矩形”和“直角”的内部信号表征可能各不相同,但当它们习得“矩形”“直角”这些术语时,已将这些词与其各自内部的信号组绑定(bound)。因此,即便不同机器在观察矩形与直角关系时所激活的具体信号集不同,其对这一关系的表达结果却是相同的。换言之,这种共识的核心,正是在语言定义外部对象过程中所发生的信号对齐(signal alignment)。因此,所谓“客观描述”,实质上是指:对象之间那些可实现跨系统信号对齐的关系性描述。
现在,我们重新审视通过回溯动作所定义的对象。显然,该对象并无外部对象作为其触发源——它实际上是由系统内部的过往信号所触发的。这些信号是内源性的,故无法依据外部对象进行对齐(如图2所示)。这便解释了为何通过回溯动作定义的对象无法被客观描述:缺乏共享的外部锚点,不同机器(甚至同一机器在不同时间)回溯出的内部信号组之间无法达成稳定对齐,从而无法用公共语言精确传达其内容——此即不可言说性的根源。
进一步地,这种不可言说性也直接导向物理不可还原性(physical irreducibility)。既然该对象的本质依赖于系统内部特定的、历史依赖的信号组合及其回溯生成的动态结构,而这一结构无法被映射到任何中性、公共的物理参数(如神经放电频率、脑区激活强度等),那么任何试图将其完全还原为外部可观测物理状态的努力,都必然丢失其构成性特征——即“作为被回溯激活的、具身的、第一人称的表征”的身份。因此,它在原则上抗拒物理还原。
此外,由于通过回溯动作所定义的对象无法被客观描述,因此它必然是物理不可还原的(physically irreducible)。这是因为,所谓“物理可还原性”,本质上是用一个客观现象去解释另一个客观现象——而一切物理现象的描述,都必须以客观语言为根基。若某一现象无法被客观描述,则意味着它无法通过其他物理现象加以解释;因此,它必然是物理不可还原的。
3.3.2 意向性
意识的意向性(intentionality)是指:人类的现象意识总是关于(about)某个特定事物的。事实上,对于我们所讨论的这台机器而言,这一点是自然成立的。
根据回溯原则可知,通过回溯定义的对象是一组具有预测力的信号;而根据预测原则,一组具有预测力的信号正是用于反向界定外部对象的基础。因此,我们可以得出结论:通过回溯定义的对象(即我们主张对应于人类感受质的对象)——它必然指向某个特定的外部对象。换言之,该对象天然具备意向性。
表征主义者(representationalists)或许会反驳:我们对意向性的处理过于简化,因为意向性通常不仅包含“指向性”(directedness),还涉及准确性条件(accuracy conditions)——有时表述为“可真值评估性”(truth-evaluability)。例如,当某人看见一个红苹果时,其体验内容可被表述为“那里有一个红苹果”;若那里确实存在一个红苹果,则该体验是准确的;若实际上是一个红灯,则该体验便是错觉性的。
乍看之下,这一要求似乎超出了我们所提出的原则范畴。然而,一旦我们追问:我们究竟如何确认“苹果真的在那里”?这种关联便清晰显现——我们正是通过进一步检验来实现确认的:例如触摸它、从不同角度观察它,或稍后再次核查。所有这些操作,本质上都是在验证当前知觉与过往及预期感官模式之间的预测关系是否成立。当这些预测持续得到满足时,我们便将该体验判为“准确”;当预测系统性地失效时,我们则将其判为“不准确”(即错觉或幻觉)。因此,意向性所蕴含的真/假评估能力,已完全内在于我们提出的原则框架之中。
在此视角下,“真”并非被定义为与一个不可知的物自体世界(noumenal world)相符合,而是被理解为与主体更广泛的经验与预测网络保持一致性——这一观点与康德的深刻洞见高度契合:即我们所经验的“现象世界”(the world-for-us),正是通过我们的认知形式(forms of cognition)所建构而成的。
3.3.3 统一体性
本文中,“统一体性”(unity)采用贝恩(Bayne, 2010)提出的现象统一体性(phenomenal unity)标准定义,即:多个同时发生的体验被整合为一个单一、融贯的现象场。我们承认,某些哲学家还讨论更广义的统一性概念,例如历时统一性(diachronic unity)或与自我相关的统一性(self-related unity),但这些超出了本文判据的范围——我们的关注点在于现象意识的共时结构(synchronic structure)。
那么,统一体性是否适用于“通过回溯所定义的对象”?诚然,在任一时刻,机器内部的所有信号未必都被归并为单一对象(即未被当作一个整体处理);然而,当机器被要求反思自身经验时,它必须动用回溯原则。而依据该原则所回溯的对象,必然是具有预测力的信号组;这些信号组又被用于界定外部对象。因此,机器在回溯自身过往意识经验时,必然将其感知为一个统一的整体。
然而,机器将信号感知为一个统一整体,并不自动意味着它认识到这种感知本身是一种统一的经验。要使机器真正理解其经验是统一的,它必须既意识到整体,也意识到构成该整体的各个组成部分。一旦它把握了整体与部分之间的关系,便能得出结论:这一整体性经验是由多个组分共同构成的——此即对“统一体性”的自觉把握。
具体而言,若一台机器具备每次仅激活单一类传感器源的能力,它便能分离出经验的个别组分。例如,一台同时具备听觉与视觉感知能力的机器,可选择仅激活听觉传感器以获取听觉组分,或仅激活视觉传感器以获取视觉组分。倘若该机器还具备一种基本能力——即识别出某组信号是另一组信号的子集——那么它便能自然判断:一组同时包含听觉与视觉信号的信号群,实际上由听觉组分与视觉组分共同构成。由此,该机器便能认识到:其意识(即该信号群)是一个由多种类型传感器信号组成的统一整体。
3.3.4 从“知晓”到“言说”
至此,我们已阐明:一台依据四项原则运作的机器,会定义并知晓一类用于表征信号组的对象;这些对象具备与人类现象意识相同的四个核心属性——不可言说性、物理不可还原性、意向性与统一体性。然而,仍存在一个潜在问题:根据我们先前确立的意识判定标准,机器不仅需知晓这些属性,还必须能够表达(articulate)它们。那么,从“知晓”过渡到“言说”是否存在障碍?
我们认为:不存在此类障碍。原因在于,机器定义这一类特殊对象(即具备感受质属性的对象)所依据的原则,与其定义其他普通对象的原则完全一致。因此,只要机器具备感知并表达普通对象属性的能力,它就理应同样具备表达此类特殊对象属性的能力。
然而需明确:机器表达普通对象属性的能力,与其是否具有现象意识无关;它取决于机器的现象探测能力与表达能力——换言之,这是一个智能(intelligence)问题,而非意识是否存在的问题。因此,我们相信:只要机器拥有足够的智能与表达能力,它便能毫无困难地表述出与人类现象意识相对应的对象所具有的属性。
基于上述论证与所确立的标准,我们可得出结论:
一台遵循四项信息处理原则运作的机器,具备现象意识;
且我们对其具有意识的确信程度,与我们相信他人具有意识的确信程度完全一致。
- 哲学原则与实证证据之间的桥梁
我们前述提出的意识机器之原则,是通过理性推理(a priori reasoning)推导而得。一个自然的问题由此产生:人类是否也依据相同的原则运作?我们认为答案是肯定的。然而,要确证这一主张绝非易事——其困难在于:我们的方法论路径与主流认知科学存在根本差异。
具体而言,我们的推理是自上而下(top-down)的:旨在通过推演意识智能体实现所需的必要条件,来构建一个具备意识的机器;而主流认知科学则主要采取自下而上(bottom-up)路径,聚焦于解释人类认知中观察到的孤立现象。因此,若要利用认知科学的实证证据来评估我们所提出的原理是否也适用于人类,首先必须在两种不同方法论框架所使用的概念术语之间建立对应关系。
4.1 预测原则与特征绑定
在认知科学中,“特征绑定”(binding features)指将感觉信息或特征整合为一个统一知觉对象的过程。该概念与“预测原则”中的“信号组”具有相似性:二者均描述了将外部加工的感官信号捆绑在一起,使之被感知为一个整体的过程。
然而,二者亦存在关键差异:
在主流理论中,特征绑定的成因主要归于注意——同时被注意的特征会被绑定在一起;
而依据“预测原则”,信号之所以被分组,是因为该组信号具有预测力——它们能够预示特定信号(尤其是与个体自身利益或关切相关的现象)的出现。
那么,二者是否存在关联?答案是肯定的。具体而言:
- 基于预测力的信号分组是目标;
- 基于注意的特征绑定则是实现该目标的机制。
特征绑定实质上捕获的是共同出现的特征之共现特性,这为形成信号组奠定了基础。相较而言,特征绑定本身不涉及所绑定特征组是否具备充分预测力这一维度。因此,一个合理的假说是:
大脑首先广泛地绑定大量特征,继而依据这些绑定特征的预测能力(尤其是其对个体自身的预测相关性),保留那些能做出重要预测的特征组及其预测关系,舍弃其余预测力较弱的组合。
尽管目前尚无直接证据证实“特征绑定确为上述过程中的一个步骤”,但已有若干研究为此假说提供了初步支持。例如,有证据表明:特征绑定的强度确实会因其能否预测与自我相关的重要事件而发生变化。具体而言,那些与当前任务直接相关,或能引发情绪反应的特征——情绪常被视为对个体有害或有益事件的信号(Lazarus, 1991;Lerner & Keltner, 2000)——其绑定效应往往被增强(Phelps, 2016;Barbot & Carrasco, 2018)。这种增强通过分配更多注意资源或提高特征出现频率实现(Yiend, 2009;Mattson, Fournier, Behmer, 2012)。
这种“对个体相关特征的绑定增强”现象,正与“预测原则”和“优先性原则”所预设的预测性网络相契合:即大脑通过经验,逐步形成与个体兴趣和关切密切关联的信号组。
4.2 探索原则与注意
一旦我们厘清了“特征绑定”与“基于预测力的信号分组”之间的关系,便可进一步比较二者在处理流程上的异同(见图3)。
二者的关键差异在于对注意(attention)角色的理解:
在主流观点中,注意本身被视为一种使不同特征得以绑定的机制。例如,特雷斯曼与格莱德(Treisman & Gelade, 1980)提出的特征整合理论(Feature Integration Theory, FIT)指出:在前注意阶段(preattentive stage),视觉系统仅能获取简单的特征图(feature maps)——如颜色、朝向、运动方向等;这些特征通过自下而上的加工形成。因此,检测由单一基本特征定义的显著目标(如唯一颜色或唯一朝向的目标)相对容易。然而,涉及特征绑定的任务——例如将多个特征整合为一个客体、知觉细节,以及绝大多数物体识别任务——均依赖于选择性注意这一机制。
然而,在基于探索原则的机制中,并不存在一个与“注意”直接等同的专门机制;取而代之的是:系统通过调节信号权重,使某些信号得以凸显,而其他信号则被抑制。那些同时被凸显的信息自然会发生信号绑定。
仍以我们此前讨论的简单机器为例:在某一特定外部条件下,机器上的信号灯阵列处于某种状态;按下按钮后,新的信号灯被点亮——这一过程类比于获取新信息。这些同时点亮的信号会自发地进入初步的绑定过程,而该绑定则为后续筛选出具有预测力的绑定组合提供了基础准备。
可见,“注意机制”与“通过按钮操作改变信号灯状态”的过程存在若干相似之处:
- 目的而言,二者均服务于帮助主体获取更多信息;
- 实现方式而言,二者均可涉及由感觉器官变化(如身体移动、眼球转动)引发的信号输入,也均可包含纯粹的神经过程——例如自上而下的神经调控,在无需身体直接参与的情况下增强某些信号、抑制其他信号。
尽管存在上述相似性,二者仍有三项关键差异。下文将逐一详述:
第一,在主流理论中,注意通常被视为聚焦性(focused)的——这意味着特征绑定仅在注意被导向特定特征时才会发生。
相比之下,基于探索原则的机器并不区分“聚焦”与“弥散”状态——只要信号被同时激活,绑定过程便随即开始。
近期一些实证研究支持了“特征绑定可在无须聚焦注意的情况下发生”这一观点(Balas, Nakano & Rosenholtz, 2009;Rosenholtz, 2024;Keshvari & Rosenholtz, 2016)。
第二,在主流的特征整合理论中,注意仅能绑定诸如颜色、朝向、运动等简单特征;而我们的意识机器则不设此类限制——任何由信号灯表征的信号,均可成为绑定的候选对象。
事实上,根据我们所提出的四项原则,机器本身不具备区分简单特征与复杂特征的能力;它仅被动接收信号,并依固定模式加以组织。实证研究表明,认知中的绑定过程未必局限于简单特征——某些绑定涉及更复杂、更具语义意义的对象(Joseph & Nakayama, 1997;Rosenholtz et al., 2012;Cohen, Alvarez, & Nakayama, 2011;Ehinger & Rosenholtz, 2016)。
综合上述两点,我们认为:主流通说中“前注意阶段”与“注意阶段”的二分法值得商榷。相反,我们主张:知觉中的信息探索过程更宜被理解为“模式切换”(mode switching)。
仍以我们的简单机器为例:当观察外部环境时,机器初始运行于一种“无按钮按下”的状态——可称为默认模式(default mode)。当在此模式下获取的信息不足以完成当前任务时,机器会切换至另一种模式,以进行更深入的探索。
人类认知亦遵循类似机制:主流理论所描述的“前注意阶段”,实则对应于默认模式;而“注意”则对应于切换至其他聚焦性观察模式的过程。
罗森霍尔茨(Rosenholtz, 2024)的双任务实验为上述观点提供了有力支持:实验发现,即便是极为简单的任务,彼此之间也会显著干扰表现。根据“前注意阶段/注意阶段”的二分模型,这些任务理应并行处理,互不干扰;然而,依据模式切换假说,由于两项任务需调用不同的观察模式,其干扰便不可避免。
若模式切换理论成立,则传统意义上的“注意机制”可能并不作为一项独立的认知功能而存在;所谓“注意”,或许仅是在切换至聚焦性观察模式时所呈现出的现象。
最后,也是最关键的一点:无论知觉过程依赖的是注意机制还是模式切换,一个根本性问题依旧存在:如何实现有效探索?换言之,为何注意几乎总是被导向最相关的位置?标准解释是:注意分配源于自下而上与自上而下神经过程的协同。然而,这一解释并不充分——因其缺乏一个确保注意分配有效性的具体机制。
另一方面,若心智中已建立起基于信号分组的预测关系网络,该网络便可作为注意分配的引导依据。原因在于:信号组不仅编码了外部信号之间的关系,还包含了为获取进一步相关信息所需执行的动作。
以下以实例说明:在一项搜索任务中,被试需从一众“F”中找出一个“T”。
- 若“T”恰巧出现在可被直接区分的位置,相当于信号灯阵列中有特定信号组直接标示出“T”所在位置;被试便可依据该信息直接定位目标。
- 若“T”出现在无法被直接区分的位置,被试则可依赖那些表征“T可能存在”的信号——即:1)存在某一信号与“进一步观察以确认其为T”之间具有预测关系;2)另一预测关系则提示:若进一步观察,它也可能实为“F”。
这些信号不仅支撑“T可能存在”的假设,还内含了验证该假设所需的模式切换信息(类比于前例中“按下按钮”的操作)。被试可据此线索进行进一步确认。这种依据信号组切换观察模式的过程,本质上正是注意的定向过程;而信号组中所蕴含的动作信息,恰恰为“如何进一步探索”提供了操作性指引。
尽管目前尚无直接证据支持上述“通过信号组引导信息探索”的具体机制,但由该机制所推导出的一个现象——过往经验可改变个体的知觉方式——已获得大量实证研究的广泛支持。
例如:
- Kundel 与 La Follette(1972)发现,放射科医生阅读X光片时的视觉搜索模式显示,经验丰富的医师能更迅速地识别异常区域,反映出专业经验对观察模式的深远影响。这意味着,与专业技能相关的任务史深刻塑造了知觉加工过程。
- Reingold 与 Sheridan(2011)综述了国际象棋棋手与医生的视觉专长,强调任务经验如何系统性地塑造个体的观察与知觉策略。
- Werner 与 Thies(2000)比较了足球专家与新手在足球场景中检测变化的表现,发现专家对关键变化更为敏感,进一步支持了任务经验对观察模式的影响。
此类由历史任务所引发的知觉差异,不仅体现在专业经验中,也见于文化背景或休闲活动中:
- Nisbett 与 Miyamoto(2005)综述了文化背景如何影响个体知觉方式,指出东亚文化倾向于整体性知觉,而西方文化更偏向分析性知觉——这反映了长期任务与环境对观察习惯的塑造作用。
- Boot 等人(2008)发现,经常玩电子游戏的个体在多种认知任务中表现出更高的注意水平与执行控制能力,表明特定任务经验可系统性地改变观察与知觉习惯。
上述证据共同表明:大脑必定具备某种机制,能将过往经验与当前观察模式进行整合。而我们前述所讨论的“基于信号组的预测性探索”框架,为解决这一整合问题提供了一种合理且具操作性的理论路径。
4.3 回溯原则与记忆索引理论
至此,我们已阐明了预测原则、优先性原则与探索原则与认知科学中既有概念之间的关联。相较之下,回溯原则与现有理论具有更为直接的对应关系。
回溯原则指出:回溯的对象是一组信号——这与海马体记忆索引理论(hippocampal memory indexing theory)高度吻合。该理论认为,记忆表征本身并非存储于海马体中,而是分布于大脑皮层各区域;海马体则充当一种“索引指针”,指向这些分布式表征。当个体进行回忆时,这些索引指针被激活,从而重新唤起(reactivate)过去曾被绑定在一起的特征(Teyler & DiScenna, 1986;Teyler & Rudy, 2007)。
结合前文所讨论的“信号组”与“特征绑定”之间的关系,上述机制表明:至少在长时记忆中,人类的记忆回溯过程与回溯原则是一致的。此外,一些近期研究进一步指出,短时记忆(working memory)(Fiebig, Herman & Lansner, 2020)。
- 进一步澄清与开放性问题
至此,我们已呈现了一台满足第3.1节所提充分性判据的机器,并初步论证了:人类很可能也是受类似原则支配的意识机器。然而,关于意识的若干重要问题仍有待探讨。本节将讨论部分开放性问题,并厘清本框架的适用范围。
意识机器是否对其内部发生的所有事件都具有觉知?
否。一个系统仅当某一事件的状态被记录时,才可称其对该事件具有意识。若某事件的信号从未被记录,或一经激活即被迅速丢失,那么即便这些信号曾短暂激活了足以产生现象意识的信号组,系统仍无关于该事件的记忆,因而也缺乏报告“曾意识到它”的基础。
盲视(blindsight)为此提供了经典例证:盲视患者能毫无障碍地穿越迷宫,却坚称自己“什么也没看见”。在我们的框架下,这意味着:
热门跟贴