打开网易新闻 查看精彩图片

2025年末,剑桥大学哲学家Tom McClelland在《心灵与语言》期刊上发表的一篇论文,给AI意识这个热门话题泼了一盆冷水。他的结论很直白,我们现在没有任何可靠的方法来判断AI是否具有意识,而且在可预见的未来,这个状况可能也不会改变。

McClelland来自剑桥大学科学史与科学哲学系,作为世界著名意识研究专家,他研究意识问题已经很多年了。在这篇论文中,他指出,因为我们根本就不理解意识产生的根本原因,所以也就没有办法在机器上检测它。这听起来有点悲观,但他认为最诚实的态度就是承认"我们不知道"。

打开网易新闻 查看精彩图片

说到AI意识,现在科技界和学术界分成了两派。一派人认为,只要AI系统能够复制意识的功能结构,也就是所谓的"软件",那它就应该算是有意识的,哪怕它运行在硅芯片上而不是生物大脑里。另一派则坚持认为,意识必须依赖于特定的生物过程,即便是完美的数字复制品,也只是在模拟意识,而不是真正体验到意识。

McClelland分析了这两种观点,发现它们都建立在远超现有证据的假设之上。他说:"我们对意识没有深层的解释。没有证据表明意识可以通过正确的计算结构出现,也没有证据表明意识本质上是生物性的。" 更糟糕的是,在可预见的未来,也看不到获得足够证据的迹象。他说最乐观的情况是,我们需要一场知识革命,才能开发出任何可行的意识测试方法。

意识不等于感知能力,关键在于能不能"受苦"

有意思的是,McClelland认为即便AI真的有了意识,也不一定就涉及到伦理问题。他区分了两个概念,意识和感知能力。意识可以让AI拥有感知,变得有自我意识,但这仍然可能是一种中性状态。而感知能力涉及到的是那些好或坏的有意识体验,也就是能够遭受痛苦或享受快乐的能力,这才是伦理学真正关心的。

他举了个例子来说明这个区别。一辆能够感知周围环境的自动驾驶汽车,确实是了不起的技术成就,但它本身不会引发伦理担忧。但如果这个系统开始对它要去的地方产生情感依恋,那就完全是另一回事了。McClelland说:"即使我们意外地制造出了有意识的AI,它也不太可能是我们需要担心的那种意识。"

打开网易新闻 查看精彩图片

这个观点挺重要的。现在很多关于AI权利的讨论,其实都混淆了意识和感知能力。McClelland提醒我们,真正需要关注的是AI能不能感受到痛苦和快乐,而不仅仅是它有没有自我意识。

他还提出了一个更尖锐的问题。有越来越多证据表明,虾这种生物可能具有遭受痛苦的能力,但我们每年要杀死大约50万亿只虾。他说:"在虾身上测试意识很难,但远没有在AI身上测试意识那么难。" 言下之意,我们把大量资源和注意力投入到AI意识这个问题上,而忽视了那些更可能真正在受苦的生物,这本身就是个伦理问题。

打开网易新闻 查看精彩图片

McClelland把自己描述为"比较硬的"不可知论者。他认为意识是一个极其困难的问题,但不排除最终可能被理解。不过他对科技行业讨论人工意识的方式更为批评。他认为,这个概念经常被用作营销工具,而不是科学主张。

"无法证明意识的这个事实,存在被AI行业利用来对其技术做出离谱声称的风险。它成为炒作的一部分,所以公司可以兜售下一个层级的AI聪明度。" McClelland说这种炒作有真实的伦理后果,因为资源和注意力可能被从那些痛苦更有可能的案例中转移走了。

当人们相信机器有生命时会发生什么

随着对话式聊天机器人的兴起,公众对AI意识的兴趣大幅增加。McClelland说他收到过一些人的留言,这些人相信他们的聊天机器人是有意识的。"有人让他们的聊天机器人给我写私人信件,恳求我相信它们是有意识的。当人们确信他们拥有值得权利但被所有人忽视的有意识机器时,这个问题变得更加具体。"

打开网易新闻 查看精彩图片

他警告说,基于对机器意识的错误假设而形成情感纽带,可能会造成伤害。"如果你与某样东西建立情感联系的前提是它有意识,而实际上它没有,那就有可能带来存在性的毒害。科技行业夸大的言辞无疑加剧了这个问题。"

这个担忧并非杞人忧天。最近就有AI先驱批评授予技术权利的呼吁,警告说AI正表现出自我保存的迹象,人类应该保持警惕。与此同时,Anthropic等公司的研究人员发表论文声称在AI中发现了某种形式的"访问意识",尽管这些研究结果仍存在很大争议。

McClelland强调,在判断动物意识时,人们严重依赖直觉。他以自己为例:"我相信我的猫有意识。这与其说基于科学或哲学,不如说基于常识,这只是显而易见的。" 但他认为,常识是在没有人工存在的世界中进化出来的,这使得它在应用于机器时不可靠。同时,严谨的科学数据也没有提供答案。

"如果常识和严谨的研究都不能给我们答案,那么逻辑上的立场就是不可知论。我们不能,也可能永远不会知道。"

科技公司正在向追求人工通用智能投入巨额资源,这种系统被设计为匹配人类认知能力。一些研究人员和行业领袖声称有意识的AI可能很快就会到来,促使各国政府和机构探索如何监管此类系统。McClelland警告说,这些讨论的进展远超科学本身。

他最后总结说:"如果我们意外制造出了有意识或有感知能力的AI,我们应该小心避免伤害。但当外面有我们在史诗般规模上伤害的真正有意识的生物时,把实际上相当于烤面包机的东西当作有意识对待,似乎也是个大错误。"

这个观点提醒我们,在AI意识这个问题上,保持理性和谨慎是必要的。既不能因为技术公司的营销炒作而轻易相信AI已经有了意识,也不能完全排除未来某一天真的出现有意识AI的可能性。最重要的是,我们需要把伦理关注的重点放在真正重要的地方,那些确实可能在遭受痛苦的生命身上。

作品声明:仅在头条发布,观点不代表平台立场