大模型会不会产生意识?这个问题在AI界争论已久。Google DeepMind的一位科学家最近给出了一个斩钉截铁的答案:永远不会。
发表这一观点的是DeepMind研究员Alexander Lerchner。他刚刚发布了一篇名为《抽象谬误》的论文,直接挑战了当前AI界的主流认知。
算力换不来意识
当前主流观点认为,只要模型参数足够大、算力足够强,意识就会自然涌现。OpenAI、Anthropic等顶级AI实验室的领导者都曾表达过类似观点,认为AGI甚至超级智能已经近在咫尺。
Lerchner把这种观点称为"抽象谬误"。他认为,这是一种根本性的错觉。算法本质上只是符号的重新排列组合,是人类绘制的一张地图。无论这张地图多么精细复杂,它也不可能变成真实的物理地形。
他用了一个绝妙的类比:指望一行行代码能产生真正的内在意识,就像指望写在纸上的"万有引力公式"能凭空产生重量。公式可以完美描述重力,但它本身没有质量。
计算的本质是什么
Lerchner在论文中深入剖析了计算的本质。他指出,物理世界是连续的——电子在半导体中的流动是连续的电流和电压波动。而计算是离散的,是人类为了方便理解,通过设立阈值,强行将连续物理现象"数字化"为0和1。
关键在于,这个"数字化"的过程需要一个前提:一个具备主观体验、具备认知能力的主体来完成归类整理。换句话说,计算本身预设了意识的存在,而不是相反。
用更通俗的话说:离开了有意识的人类,计算机里并没有"算法",只有无意义的电荷流动。指望一个依赖人类才存在的"算法层"去产生独立的"意识层",在逻辑上是本末倒置的。
模拟与实例化的鸿沟
论文提出了一个核心区分:模拟与实例化。
AI可以完美"模拟"人类的喜怒哀乐——它可以生成表达悲伤的文本、生成微笑的图像、在对话中表现出共情。但它永远无法"实例化"任何生命体验。硅基代码能骗过你的眼睛,但越不过物理法则的边界。
Lerchner举了更多例子来说明这一点:计算机模拟降雨,无论多么逼真,也不会弄湿电路板;图形处理器模拟光合作用,可以精准建模阳光、水、二氧化碳转化为氧气和葡萄糖的过程,但它永远无法合成一分子葡萄糖、释放一丝氧气。
模拟是外在的、描述性的;实例化是内在的、构成性的。这个鸿沟是结构性的,不是技术性的——它不是可以通过更大的模型、更强的算力来跨越的。
对AI伦理的启示
这篇论文的意义不仅在于理论层面,还对当下的AI伦理讨论产生了直接影响。
随着AI代理大规模进入人类生活,由于它们太擅长模仿人类的情感反馈,社会上出现了大量要求赋予AI权利的声音。Lerchner将这种现象称为"AI福利陷阱"。
他警告说,如果我们因为"抽象谬误"而误以为模拟出的情感就是真实的情感,我们将会浪费巨大的社会资源去保护一些"没有灵魂的空壳",从而忽视了真正需要关注的人类或生物福利。
论文最后强调,这一结论并不意味着人类应该停止发展AI。恰恰相反,认清这一区别,规避抽象谬误带来的本体论倒置,是机器智能科学走向成熟、立足于物理学根基发展的必要前提。
人类不断研发能力更强的人工智能,并非创造全新生命,只是构建愈发精准的预测地图。无论地图预测精度多高、推理实用性多强,人工系统在本体层面,永远与主观体验疆域存在本质界限。