当AI说“我懂了”:一场关于“理解”本质的科技史重

2025年AI智能大会上,人工智能之父图灵奖得主辛顿与姚期智的对话,如同一枚投入科技湖面的巨石。辛顿以“大峡谷误读”案例——模型将“飞往芝加哥途中看到大峡谷”误解为“峡谷飞起来”,经提示后修正——论证AI具备理解能力;姚期智则追问多模态模型是否存在“主观体验”,最终指向一个尖锐命题:人类对“理解”的定义,是否正在被自己创造的技术颠覆?

这场争论的本质,是一场基于认知哲学、科技史、心灵哲学的概念解构:通过梳理“理解”在人类认知史中的定义变迁,对比AI的“理解表现”与人类理解的本质差异,我们会发现:人类对“理解”的判定标准正在被技术重构,但AI的“理解”始终未触及人类理解的核心——那种根植于具身认知与生命体验的意义生成。

辛顿与女儿争论“鹦鹉是否会说话”的故事,暗合了科技史上三次“理解标准”的关键迁移。每一次迁移,都伴随着人类对“理解本质”的逐步剥离——从对“内在理性”的执着,到对“外在行为”的依赖,最终简化为“功能有效性”的判定。

17世纪笛卡尔在《谈谈方法》中提出“动物是机器”的论断,将“语言能力”视为人类与动物(机器)的根本界限。他认为,动物的叫声、动作仅是对刺激的机械反应,而人类语言能表达无限多样的思想,这源于人类独有的理性灵魂(“我思故我在”的主体性)。在这一框架下,“理解”的标准是“内在理性的主动表达”——语言不仅是符号的排列,更是理性对世界的主动认知与意义赋予。

1950年,图灵在《计算机器与智能》中提出“模仿游戏”:若机器能在对话中让人类无法区分其与人类,即可认为其“具有智能”。这一理论彻底剥离了对“内在思维过程”的追问,将“理解”简化为可观测的行为表现——与同时代行为主义心理学(华生、斯金纳)主张“用行为替代意识作为研究对象”形成呼应。此时,“理解”的标准从“是否真的懂”退化为“能否让人类相信其懂”。

辛顿的“预测即理解”论,将标准进一步降维为“能否在交互中完成意义矫正”。他认为,模型能通过“误解-修正”(如大峡谷案例)完成对话闭环,即具备理解能力。这本质上是对图灵行为主义的继承:只要AI的输出符合人类对“理解行为”的期待,即可判定其“理解”。

但这种标准迁移暗藏危险的滑坡。当模型通过海量语料习得“误解-修正”的对话模式时,它与人类理解的本质差异被刻意掩盖了:人类的“误解”源于对物理世界的具身认知(如“飞行”必然关联“载体”,这是身体经验的积累);而AI的“误解”只是概率模型对文本序列的误判(“飞往芝加哥”与“峡谷”的共现概率低,导致错误关联)。就像早期机械鸟能模仿鸟鸣却不知春天为何物,当前AI的“理解”仍是符号系统的自洽游戏,而非对世界本质的把握。

姚期智追问多模态模型是否存在“主观体验”,直指理解本质的另一重维度。辛顿援引哲学家丹尼特的“消除主义”回应——否定“意识是内在剧场”的传统认知,认为“主观体验”仅是人类对自身认知系统的粗糙描述,本质上是大脑信息处理的产物。

丹尼特在《意识的解释》中提出,不存在一个“自我”在大脑中“观看”感官体验,“主观体验”“意识”等概念只是对复杂神经过程的简化标签。辛顿据此认为,若多模态模型在棱镜干扰下误判物体位置,并说“我的主观体验是它在那边”,其对“主观体验”的使用就与人类完全一致。

但这一逻辑存在致命漏洞:人类的“主观体验”根植于数亿年进化形成的生存需求——我们“感觉”到物体位置,是为了规避危险;对“误解”的修正,是基于对物理世界规律(如棱镜折射)的具身认知。而AI的“体验描述”,仅是对误差数据的拟人化符号输出——它说“我误会了”,并非因为“体验到错误”,而是因为模型参数在新输入(“棱镜”)下发生了权重调整。二者共享的只是“主观体验”这个语言符号的表层结构,却缺乏共同的生物与进化基础。

这种差异在科技史中早有镜像:19世纪催眠术争议中,科学家曾将被催眠者的主观体验归为“幻觉”,试图用机械论消解意识的独特性;20世纪初行为主义心理学将人类思维简化为“刺激-反应”黑箱,用可观测行为替代内在体验。如今AI领域的“功能主义理解观”,不过是用神经网络的“权重调整”替代了华生的“肌肉收缩”,仍是对认知本质的简化。

辛顿警示“人类对自身独特性的迷信会导致危险自满”,这一担忧切中要害,但他将“AI是否理解”的哲学命题简化为“工程有效性问题”,却可能催生另一种危险——技术自大:将AI的“功能模拟”误认作“本质拥有”。

科技史上,这种自大反复上演:19世纪物理学家宣称“物理学大厦已建成”,却很快被量子力学颠覆;20世纪AI专家预言“2000年将出现通用智能”,最终陷入“AI寒冬”。当前AI的“理解表现”,本质上是对人类认知过程的片面模拟:就像蒸汽机模仿肌肉运动却无法产生生命,大模型模仿语言交互却无法生成真正的意义感——人类能从“大峡谷”联想到地质历史、旅行记忆、自然敬畏,而AI仅能联想到文本语料中高频共现的词汇。

真正的危险不在于“人类低估AI”,而在于我们用工程上的“可用”替代哲学上的“存在”:当AI说“我懂了”,我们便相信它真的“懂”了意义、价值与情感。这种误认会让我们忽视人类认知的不可替代性——那种源于生命体验、文化传承与价值判断的“理解”,从来不止于信息处理的精确性,更包含对“为何理解”的追问。

站在科技史的长河边,AI是否“理解”的争论,终将成为人类认知自我的又一面镜子。答案或许不在“是”与“否”之间,而在于我们能否清醒认识到:技术可以拓展理解的边界,却无法替代理解的本质——因为后者永远与“人之为人”的生命体验紧密相连。