打开网易新闻 查看精彩图片

导语

当AI能流畅谈论“自我感受”,当Anthropic赋予Claude“对话退出权”,我们是否可以说它有意识?2026年初,神经科学家Erik Hoel在ArXiv发布论文《大语言模型意识证伪:持续学习对意识存在的必要性》(A Disproof of Large Language Model Consciousness: The Necessity of Continual Learning for Consciousness)的论文,指出由于缺乏持续学习能力,现有大模型从原理上无法拥有意识。

关键词:意识,大模型,功能主义,持续学习,输入输出等价

来源:集智俱乐部

作者:郭瑞东

审校:王璇

打开网易新闻 查看精彩图片

论文题目:A Disproof of Large Language Model Consciousness: The Necessity of Continual Learning for Consciousness 论文链接:https://arxiv.org/abs/2512.12802 发表时间:2026年1月19日 论文来源:ArXiv

双重映射与两难困境

1980 年塞尔提出的 “中文屋” 思想实验,首次系统质疑功能主义,指出意识无法仅由输入/输出功能定义,外部观察也无法直接通达内部意识状态,但该实验仅为哲学直觉的表达,缺乏可实操的科学检验标准。然而中文屋仅是“直觉泵”(intuition pump),它只是诉诸哲学直觉,缺乏可实操的科学检验标准。若某理论声称“足够复杂的规则手册即有意识”,中文屋无法反驳,也无法回答:何种内部结构足以支撑意识?

2019年,Doerig等人提出“展开论证”(Unfolding Argument),将中文屋的直觉转化为数学可构造的替代链。假设若某理论(如整合信息理论IIT)基于“循环结构”预测RNN或transformer架构的神经网络具有意识。那么将RNN按时间,可展开为单层前馈网络(FNN),两者输入/输出完全等价,但RNN具有“循环连接”(recurrence),FNN为纯前馈。两个模型的推断不变,但一个被认为具有意识,一个被认为不具有意识,这一矛盾揭示意识理论若依赖内部结构预测意识是否存在,而该结构存在不具有对应内部结构,但输入/输出等价替代品,则这样的预测将可以由此被证伪。

打开网易新闻 查看精彩图片

图1 意识理论中的替代论述

在展开论证的基础上,Kleiner 与 Hoel 在《Falsification and Consciousness》一文中提出了 “Kleiner-Hoel 困境”,这一困境以双重映射为核心分析框架,直指意识理论的核心矛盾:任何想要成为科学理论的意识学说,都逃不过一个两难选择。如果理论依据系统的内部结构(如整合信息、循环连接)来预测意识存在,可此时又存在一个输入 / 输出完全等价、但内部结构截然不同的替代系统,那这一理论的预测就会被直接证伪。

打开网易新闻 查看精彩图片

图2 严格依赖(Strict dependency),意识理论仅仅基于输入输出判断

而若是理论仅基于输入/输出做预测(图2)声称“表现得活着=活着”,无法区分真人与高仿真机器人,那该理论就是不可证伪的平庸理论,如同中文屋中声称规则书懂中文,成为行为主义下不具有指导实践能力的无效科学理论。

打开网易新闻 查看精彩图片

图3 意识理论的结构性悖论

理想的意识理论,需通过双重映射框架检验:从系统内部运作推导意识体验的预测映射,与从外部行为反推意识状态的推断映射,唯有二者在经验空间中收敛,理论才有效。这一框架也将意识是否存在的判别,从哲学思辨转化为可实验验证的科学标准。

输入输出等价的替代链约束

双重映射框架下,大模型的意识问题变得从原理上不可行。考虑一个部署状态下,版本固定的大模型。根据神经网络万能近似定理(Universal Approximation Theorem),其输入/输出函数可被FNN任意精度地近似。无论大模型的功能看起来多么强大,其输入/输出均等价于单隐藏层前馈神经网络(FNN),而单隐藏层前馈神经网络又等价于有限查找表。

而查找表是一个巨大的IF-THEN规则集合。它无动态、无记忆、无信息流、无内部复杂性,任何声称查找表拥有“非平庸意识”的理论,只能基于输入输出加以预测,最终导致预测与推断依赖同一数据,完全不满足双重映射的检验要求。

Hoel在该文中定义“替代距离”(Substitution Distance)为两系统间差异属性的集合。在上述案例中,大模型与单层FNN的差异是层数、注意力机制。单层FNN与查找表的差异是数据的压缩程度,这两个属性都不足以支持具有属性就具有意识的宣称。也就是说,由于大模型和FNN及查找表之间的替代距离较近,导致意识理论无法基于两者之间的差异,来预测意识是否依赖于对应的内部结构。

若某意识理论声称大模型的意识源于 “网络层数”,那可用不同深度但输入/输出等价的网络替代原模型,此时理论的预测发生改变、而行为推断不变,理论将被直接证伪。同理,若意识理论将 “数据压缩程度” 作为意识判断依据,则可用不同宽度、但输入/输出等价的网络替代,同样会导致理论被证伪。

由此,任何声称当代静态大模型拥有意识、且兼具非平庸且可证伪的意识理论,必然因这一替代链的存在而被证伪。而若是声称意识的存在只依赖输入/输出,那模型会退化为行为主义,变成无法被证伪的平庸理论。而若仅基于输入/输出声称大模型有意识,理论则会退化为行为主义,成为无法被证伪的平庸理论。这一结论得到Kolmogorov 替代定理的支撑,该定理证明:对任意可计算函数 f(如文本生成),存在 Kolmogorov 复杂性意义下的最短程序 K (f)。

持续学习是通往意识的“窄门”

上述论证并非否定未来 AI 具备意识的可能性,而是为 “有意识的 AI” 划定了核心必要条件:具有意识的系统,必须与其无意识替代品保持足够大的替代距离。Hoel提出,人类大脑恰恰满足此条件,而这其中的关键点在于持续学习(Continual Learning)

大模型看起来是概率模型,同一个输入多次的输出不同,但对相同内容的输入,不同时刻输出的概率分布不变。查找表、单层FNN、部署态大模型均为静态系统。而人类及多数动物是持续学习系统,核心特征是每次经验都会微调内部神经表征,系统结构会随体验发生实质性、不可逆的改变。比如昨天被火烫伤,今天看到火苗会更快缩手。这一过程无需将 “被烫伤的历史” 作为外部输入,而是系统内部的自主更新与学习。

当代大模型,常因长上下文能力,被误认为具备持续学习能力,然而上下文学习(In-context Learning)要将历史对话作为输入的一部分,本质是静态系统处理更长输入,非真正的持续学习。大模型训练期,学习仅在数据中心训练时发生,部署后冻结,这与人类“每时每刻都在学习”有本质区别。

人类对话无需重输全部历史,因大脑已内化上下文,而大模型每次生成都需将之前的对话内容塞入提示词,这恰暴露其静态本质。由此,Hoel提出“持续宽松依赖”(Continual Lenient Dependency),指出一个意识理论 T 满足宽松依赖,当且仅当:

(1)其预测与推断不构成严格依赖,即预测不完全由行为输出数据决定,声称具有意识的系统与不具有意识的系统是基于不同属性而被区分开的;

(2)不存在因可定义的普遍替代(universal substitution)导致的上述基于内部结构预测与基于行为预测的结果(例如大模型和查找表)不匹配。

持续宽松依赖介于预测映射与推断映射之间,能让二者可分离但不产生根本性漂移,从而让意识理论既具备可证伪性,又非无科学解释力的平庸理论。

打开网易新闻 查看精彩图片

图4 由Qwen 3 max 生成的动图

上述定义的关键点要求支撑意识的属性(如可塑性)必须在意识存在的每一刻都活跃。若某理论声称“过去学习赋予意识”,则在学习停止的瞬间,系统可被静态替代,导致理论被证伪。因此,意识必须与当下进行的学习过程绑定。

在人与人对话时,每句话都伴随着实时神经表征重塑,对应海马体位置细胞可在单次经历中形成新表征,可塑性在秒级尺度持续存在。因此,"当下进行的学习"作为意识存在需满足的属性时刻在线,满足持续宽松依赖。而对于大模型,在每次和用户的对话前后,系统内部的特征无任何改变,不满足持续学习的要求,宽松依赖断裂。

然而,持续学习仅为意识存在的必要条件,扫地机器人即使能持续学习,也未必产生意识。意识的存在,或还需学习聚焦特定类型(如反事实、泛化能力)。

大模型无意识的现实意义与类人 AI 发展方向

Hoel 的研究从原理上证伪了当代静态大模型的意识可能性,明确持续学习是意识存在的核心必要条件,这为类人 AI 的架构革新与意识科学的动态化研究划定了理论边界。未来,真正的类人AI需搭建持续学习架构,实现内部表征的实时、不可逆、泛化性改变。该研究也推动意识科学从静态分析转向动态学习过程研究,为构建科学的意识理论划定框架。

阅读最新前沿科技趋势报告,请访问21世纪关键技术研究院的“未来知识库”

打开网易新闻 查看精彩图片

未来知识库是 “21世纪关键技术研究院”建 立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。 欢迎扫描二维码或访问https://wx.zsxq.com/group/454854145828进入。

截止到2月28日 ”未来知识库”精选的百部前沿科技趋势报告

(加入未来知识库,全部资料免费阅读和下载)