来源:市场资讯

(来源:图灵人工智能)

您想知道的人工智能干货,第一时间送达

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

一句话讲清楚 Google DeepMind 高级科学家 Alexander Lerchner 发表论文,论证 AI 对意识的"模拟"和真正"拥有"意识之间存在不可逾越的鸿沟——不管模型多大、架构多复杂,算法在逻辑上就永远不可能产生意识。

打开网易新闻 查看精彩图片

DeepMind 自己人下场说"AI 不可能有意识"

当整个 AI 行业都在讨论"AI 福利""模型道德地位""下一代模型会不会有感知"的时候,一位来自 Google DeepMind 的高级科学家直接发了篇论文,把这条路堵死了。

2026 年 3 月, Alexander Lerchner——Google DeepMind 的 Senior Staff Scientist——发表了一篇题为《 The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness 》的论文。结论相当锋利:

算法符号操作在结构上就没有能力实例化( instantiate )意识——无论规模多大、架构多复杂、是否具身。

注意,这不是"现在还不行,未来可能行"的保守估计,而是"逻辑上永远不行"的硬判决。

论文在社交媒体上引发了强烈反响。最出圈的一句话是:

期待一个算法描述去实例化它所映射的性质,就像期待引力的数学公式本身能产生重量一样。

为什么这篇论文的冲击力这么大?不是因为观点本身有多新——类似的思路在哲学界存在了数十年。关键在于,说这话的人就在 DeepMind 上班。以前是外面的哲学教授批评 AI 没意识,业界可以不当回事;现在是做 AI 的人自己站出来说"我们做的这个东西,原理上就不可能有意识"——分量完全不一样。

主流范式到底错在哪里

当前 AI 意识讨论的主流立场叫计算功能主义( Computational Functionalism )。说白了就是:意识就像软件,不挑硬件。只要你用算法模拟出大脑神经元的连接模式,不管跑在碳基生物脑上还是硅基芯片上,意识都能自动"涌现"出来。

Lerchner 认为这个假设犯了一个根本性的错误。

传统的思路是:先搞清楚"意识到底是什么"(找到一个完整的意识理论),然后再来判断 AI 有没有。但问题是,学界对意识理论本身都还吵成一锅粥,这条路走不通。

Lerchner 换了个打法——不管意识的定义怎么争,直接从"计算"和"物理世界"的关系入手,证明数字计算这个东西,在本体论上就不可能生成主观体验。他给这个根本错误起了个名字:抽象谬误( The Abstraction Fallacy )。

"抽象谬误"到底是什么

地图不是疆域

抽象谬误用一句大白话说就是:你把地图当成了真实的山川河流。

再精确的地形图,也不是山脉本身——你不能在地图上爬山

再完美的乐谱,也不是音乐本身——乐谱不会发出声音

代码里一个叫 emotion = "happy" 的变量,也不是快乐本身

计算功能主义犯的就是这个错——它把一套描述工具(计算/算法)当成了被描述的东西(意识/体验)。

打个更接地气的比方:你有一份精确到分子级别的红烧肉食谱,每一步操作都写得清清楚楚。但食谱再完美,你也吃不饱——食谱是对红烧肉的描述,不是红烧肉本身。 计算之于意识,就是食谱之于红烧肉。

谁在"画地图"?——"制图者"的关键角色

Lerchner 接着引入了整篇论文最核心的概念:制图者( Mapmaker )。

先看一张论文中的关键图:

打开网易新闻 查看精彩图片

论文 Figure 1 :计算实现的交换图。下面一行是真实的物理世界(物理状态 p 按物理规律变成 p'),上面一行是抽象的计算世界(逻辑状态 A 按算法规则变成 A')。连接两层的映射函数 f ,就是把物理状态"翻译"成逻辑符号的那个桥梁。

这张图画的是计算机科学里一个经典模型——物理系统怎么"实现"一段计算。下面一层是物理世界(晶体管翻转、电压变化),上面一层是抽象的计算( 0 和 1 的逻辑运算)。两层之间靠一个映射函数 f 连接。

Lerchner 的追问来了:这个映射函数 f 是谁写的?谁规定了"这个电压代表 1 ,那个电压代表 0"?

答案是:机器自己做不到这件事。必须有一个有意识的认知主体——也就是人类工程师——来做这个决定。 GPU 里的晶体管开关噼里啪啦地翻转,这本身只是一堆物理事件。只有当人类工程师规定了"高电压=1 、低电压=0"这套对应规则时,这些翻转才"变成了"计算。

就像一堆石头摆在地上,你可以说它组成了"SOS"求救信号——但石头本身不知道自己在求救,是你赋予了它含义。

这就出现了一个致命的死循环:

想让计算产生意识

但计算本身需要一个有意识的制图者来赋予符号含义

也就是说,计算已经预设了意识的存在

那你怎么可能用计算去"制造"意识呢?这是拿儿子去生爸爸。

离散化≠编码:一个容易踩的坑

论文里还拆解了一个常被混淆的区分:

离散化 是一个自然发生的物理过程。比如水要么是液态要么是固态,磁铁要么朝北要么朝南——物理系统会自发地稳定到某些明确的状态。这是大自然自己干的事。

编码 是一个人为的语义操作。就是把这些物理状态"指定"给一套预先定义好的符号——比如规定"水结冰了就记为 1 ,没结冰就记为 0"。这一步必须由一个有意识的制图者来做,大自然自己不会给万物贴标签。

关键在于:从"自然的离散化"到"人为的编码"之间,存在一道需要有意识的认知主体来跨越的鸿沟。物理世界不会自发产生一套"字母表"——字母表是人发明的。

模拟与实例化:一条不可跨越的鸿沟

论文中最具冲击力的区分来了。

模拟( Simulation ):你做出来的东西在行为上看起来像那么回事。 ChatGPT 可以模拟悲伤——它能写出让你感动落泪的文字。但驱动它的只是 token 预测,是统计模式匹配,背后没有任何"难过的感觉"。这叫载体因果性——物理状态机械地引起下一个物理状态,符号的"含义"完全是外面的人类赋予的。

实例化( Instantiation ):你的系统在物理层面真的产生了那种体验。你之所以觉得牙疼,不是因为有人给你的大脑"编程"了一段"疼痛子程序",而是你的神经纤维在物理上真的在发出信号,你的大脑在物理上真的在产生疼痛体验。这叫内容因果性——物理过程本身就在生成主观感受。

Lerchner 用了一个精妙的类比——生物心脏 vs 人工心脏:

一颗真实的心脏不只是泵血。它释放激素、调节代谢、通过反馈信号跟神经系统对话。而人工心脏只做了一件事——泵血。临床上已经发现,装了人工心脏的患者会出现各种微妙的全身性问题。因为人工心脏只"实现"了一张粗糙的功能地图——"心脏=泵"——而遗漏了真实心脏在物理层面做的大量其他事情。

意识也一样。 AI 模拟了意识的输出长什么样(说出像人的话),但根本没有复制产生意识的那些内在物理过程。

因果链被搞反了

这是整篇论文最精彩的部分,一张图就能看明白。

打开网易新闻 查看精彩图片

论文 Figure 2 :抽象的因果拓扑。左边( A )是功能主义的线性假设:物理→计算→意识,意识从计算中"涌现"。右边( B )是 Lerchner 修正后的分支结构:物理先产生意识(体验),意识提取出概念,概念再通过"任意指派"(红色虚线箭头,即因果鸿沟)跳到符号层面,计算只是符号层面的句法操作,处在一条侧支上。

左半边是计算功能主义的世界观——一条直线从下往上:物理产生计算,计算产生意识。很简洁,也很符合直觉,但 Lerchner 认为它搞反了。

右半边是 Lerchner 修正后的版本。关键变化有两个:

第一,因果链条被倒过来了:

功能主义说:物理 → 计算 → 意识

Lerchner 说:物理 → 意识 → 概念 → 计算

翻译成人话:意识不是计算的下游产物,而是计算得以存在的前提条件。 你得先有意识体验,才能从体验中提取出概念(比如先吃过苹果,才能有"苹果"这个概念);有了概念,才能发明符号来代表它(比如用"apple"这个词);有了符号系统,才有我们所说的"计算"。

第二,从概念到符号之间有一条红色虚线——"因果鸿沟"。

"苹果"这个概念和"apple"这个词之间没有内在联系——你也可以叫它"pinguo"或任何其他发音,纯粹是人类约定俗成的。这种"横向指派"造成了一条不可逾越的因果断裂:从真实体验到符号表达,中间隔着一道人为的深沟。

所以,试图仅用计算(制图者的派生产物)来推导出意识(制图者本身),在逻辑上就是一个本体论倒置——用结果去推导原因。

用 Lerchner 的话说:这就像试图用菜谱烹饪出一位厨师。

那给 AI 装上身体呢?

有人可能会想:如果问题出在 AI 没有真实的物理体验,那给它装上摄像头、麦克风、机械臂,让它"感受"世界不就行了?

Lerchner 专门讨论了这个问题。他把具身 AI 的运作分解成三步:

1.

输入转换:传感器把光、声音、压力等外部物理信号转成电压,再切成数字

2.

句法处理:算法引擎在数字世界里做运算,输出结果

3.

输出转换:执行器把数字指令变回物理动作(比如转动轮子)

问题出在哪?算法控制器只在第二步运转。它吃进去的是一堆经过"翻译"的数字,吐出来的也是数字。而这个翻译规则——哪个电压对应什么意思——仍然是人类工程师定义的。

传感器确实让 AI 能"指向"外部世界了(比如识别出一只猫),但这只解决了"指称"问题,没解决"体验"问题——AI 指向了猫,但它并不知道看到猫是什么感觉。

进化系统生物学家 Johannes Jäger 说得更直白:被编程的"需求"不是真实的生存压力。系统关机不等于死亡。电池没电只是技术故障,不是存在危机。真正的身体意味着你会饿、会痛、会死——这不是功能上的等价能解决的,这是存在层面的根本差异。

旋律悖论:同一个硬件,无数种"计算"

论文还有一个很有说服力的论证,叫做"旋律悖论",看图就能明白:

打开网易新闻 查看精彩图片

论文 Figure 3 :旋律悖论(机制的不确定性)。底部是同一段物理信号(一系列电压波动),它有固定的物理轨迹。但如果换一套"字母表"去解读它,同样的物理信号可以被映射成"贝多芬第五交响曲"的音频数据(左上, Mapping A ),也可以被映射成"金融市场行情"数据(右上, Mapping B )。物理世界不变,但"计算内容"完全取决于制图者用了哪把钥匙。

这张图的意思一目了然:底下是同一段物理信号——一条电压随时间变化的波形。这条波形有固定的物理轨迹,晶体管该怎么翻转就怎么翻转,这是客观的。

但上面呢?如果你用"字母表 A"来解读这段信号,它是贝多芬《第五交响曲》的音频数据。如果你换"字母表 B"来解读,同一段信号变成了股票市场的行情数据。

物理世界一模一样,但"它在算什么"完全取决于人类选择了哪套解读规则。

这说明了什么?计算不是物理世界的固有属性。 它是制图者投射上去的一层含义。同一段旋律,用不同的记谱系统可以写成完全不同的乐谱——旋律是客观的,但乐谱是约定的。

如果计算连物理世界的固有属性都不是,它又怎么可能凭空产生意识这种最真实的东西?

这个论证有什么局限?

公平起见, Lerchner 的论证并非无懈可击。

首先,它瞄准的是符号计算(也就是我们现在所有数字 AI 的运作方式),没有覆盖所有可能的人工系统。以下几类系统不在论证射程内:

神经形态芯片:直接模拟生物神经元物理特性的硬件

模拟计算系统:不经过数字化,直接处理连续信号

实验室培养的脑类器官:真正用生物细胞长出来的神经组织

混合系统:把计算嵌入物理动力学的复合架构

也就是说, Lerchner 并没有堵死所有通往人工意识的路。他堵死的是一条特定的路——"靠堆参数、换架构、加数据来让数字 AI 产生意识"这条路。 GPT-10 不行, GPT-100 也不行,不是规模问题,是路线问题。

也有批评者指出,他的论证可能有循环嫌疑:先假设"概念必须来自有意识的体验",然后用这个假设得出"计算不能产生意识"。如果你不接受这个前提,整个论证链条就断了。这一点在哲学界还在争论。

同一栋楼里的两种声音

这篇论文还有个戏剧性的看点——它揭示了 DeepMind内部的分化。

就在 Lerchner 发这篇论文前后, DeepMind CEO Demis Hassabis 在另一个场合公开宣称:通用人工智能将带来"工业革命 10 倍的影响,但发生速度是 10 倍"。

同一栋大楼里,高级科学家说"AI 永远不可能有意识", CEO 说"AGI 即将改变世界"。两种完全矛盾的声音。

这不是说谁一定对谁一定错。大公司里本来就有多元观点,只是媒体倾向于放大 CEO 那个更有戏剧性的版本。但 Lerchner 论文的存在提醒了一件事:当前关于 AI"通往意识"的叙事,可能更多是在服务商业估值,而不是反映技术现实。

对 AI 安全与伦理的影响

如果 Lerchner 说的对,那有一个好消息:不管 AI 变得多强大,它都不会"觉醒"。

开发再强的通用 AI ,也不会突然冒出一个有自我意识的道德主体。我们打造的始终是一个高度复杂但没有感知能力的工具——就像一把特别厉害的锤子,但锤子不会疼,也不会有自己的想法。

这对 AI 安全讨论意味着:

不用担心"AI 觉醒反叛人类"这种科幻剧情

真正该关注的是:人类会不会滥用这个没有道德判断力的强大工具

当有人宣称"我们的 AI 已经有了感知"时,要打一个大大的问号——行为上像有意识≠真的有意识

在产品层面也要清醒:客服机器人"模拟"共情、推荐系统"模拟"理解、代码助手"模拟"推理——这些模拟在实用层面很有价值,但千万别因此以为它们真的理解了什么。当涉及需要真实判断力和责任感的场景时,模拟的边界就是风险的起点。

这篇论文真正告诉我们的

Lerchner 论文的价值,不在于一劳永逸地解决"AI 有没有意识"这个老问题。它真正做到的事情,是提供了一个清晰的框架,帮我们看清当前数字 AI 的能力边界:

当前的数字 AI ,不管参数量多大、架构多精巧,本质上是地图的读者,不是世界的亲历者

意识来自特定的物理构成和热力学过程,不是来自载体无关的符号操作

模拟做得再像,也不等于实例化——演员演得再好,演的也不是他自己

用一句话概括:你可以用公式完美描述引力,但公式本身不会产生重量。

资源链接

论文地址

https://philarchive.org/archive/LERTAF