内嵌于系统底层的幻觉机制将反向塑造人类的认知习惯,迫使人类从技术的创造者与驾驭者,退化为算法输出内容的审核员与修补匠。
根治AI幻觉的终极方案,在于推动人工智能从纯粹的“符号处理系统”进化为具备物理交互能力的“具身智能”。
原文 :《AI幻觉本体论困境的技术哲学审视》
作者 |复旦大学马克思主义学院博士生 邝光耀
图片 |网络
在二十一世纪的第三个十年,算法算力双重爆发,以生成式预训练变换器为基座的大型语言模型(LLMs)的异军突起,标志着人类技术文明进入了一个令传统认识论既感迷惑又深觉不安的“符号合成时代”——人类文明的知识生产方式从基于主体经验与逻辑推演的有机生成,转向了基于概率统计与向量计算的自动生成。然而,这种能够以前所未有的流利度编织文本、代码乃至多模态内容的“能指机器”,始终被一种本质性且无法摆脱的阴影所缠绕——AI“幻觉”(Hallucination)现象。
AI幻觉机制反向塑造人类认知习惯
在计算机科学的实用主义视角下,幻觉通常被简化为一种应当被“纠错(debug)”的技术噪音,一种源于数据脏污或拟合偏差的工程学失误。然而,当这种所谓的“失误”能够以高度确信的口吻捏造历史、虚构判例甚至重组科学公理时,它便不再仅仅是代码层面的故障,而构成了斯蒂格勒在《技术与时间》中提出的“第三持存”意义上的系统性污染。从技术哲学角度深入审视AI幻觉生成的微观机制,其根源在于“统计相关性”对“逻辑因果性”的暴力替代,以及高维向量空间对丰富语义世界的降维压缩:在深度学习的训练过程中,大语言模型通过反向传播算法习得的是词汇与词汇在海量文本中共同出现的概率分布,而非概念与概念之间内在的逻辑必然性。这种机制实际上构成了一种“抽象的暴力”,它将现实世界中那些充满辩证张力、时间不可逆性以及复杂因果链条的客观真理,强行压平为一个静态的、几何化的语义地图。因此,当模型面对其训练语料中未曾覆盖的长尾知识或需要跨领域综合判断的复杂情境时,它无法像人类智能那样进行基于第一性原理的因果推演,而只能依据表层的语义相似性进行概率上的“猜想”。这种被美国语言学家本德(Emily M. Bender)称为“随机鹦鹉”的运作模式,恰体现了当前生成式AI在语言处理上的本质特征:它极其熟练地操纵着语言的能指(形式),却始终无法真正触及语言的所指(意义)。
如果放任这种基于概率拟合的虚假认知幻觉在数字文明生态中无序蔓延,我们将面临一种极为严峻的“认知熵增”危机。随着生成式人工智能技术的普及,大量包含事实错误与逻辑漏洞的合成数据正以指数级速度被注入互联网的公共信息池中。最新的计算机科学研究已经提出了“模型崩溃”的理论预警:即当下一代AI模型开始大量使用由上一代模型生成的合成数据进行训练时,其对现实世界的表征能力将出现不可逆转的退化。这种递归性的污染类似于近亲繁殖带来的基因缺陷,会导致模型对真实世界的认知分布逐渐收敛于一种狭隘、平庸且充满谬误的状态,最终丧失捕捉现实复杂性与多样性的能力。对于人类社会而言,这种技术异化的后果更为深远。当算法系统逐渐成为人类获取知识的主要中介,这种内嵌于系统底层的幻觉机制将反向塑造人类的认知习惯,迫使人类从技术的创造者与驾驭者,退化为算法输出内容的审核员与修补匠。我们不得不在海量的“超真实”信息中耗费巨大的心力去甄别真伪,这种认知负荷的增加不仅降低了社会整体的知识生产效率,更在潜移默化中侵蚀着人类主体性的根基,使得批判性思维与独立判断能力在算法的“喂养”下日渐萎缩。
实现认知的“外部锚定”
面对AI幻觉这一系统性的“本体论困境”,任何试图在现有封闭架构内通过参数微调或指令工程来消除幻觉的努力,都注定只能是治标不治本的权宜之计。治理AI幻觉的根本出路,在于推动人工智能从封闭的“内部记忆”模式向开放的“外部检索”模式转型,即实现认知的“外部锚定”。法国技术哲学家西蒙东认为,一个成熟的技术物应当是一个能够通过与外部环境的递归互动来实现自我调节的“具体化”实体。因此,真正的人工智能不应是存储在参数矩阵里的死知识,而应是像生命体一样,通过持续接收环境反馈来校准自身认知的动态过程。这意味着未来的AI系统必须拥有“数字感官”和物理执行器,能够动态地接入物联网、实时数据库乃至物理世界。通过这种“技术环境”的重建,大语言模型的内容输出将不再是一个孤立的预言家,而是一个在不断变化的世界中持续学习的“探索者”。AI系统也将不再是一个自言自语的孤立智力,而是一个镶嵌在人类知识网络中的动态节点,它通过与外部信息环境的持续互动来更新自身的认知状态,从而大幅降低因训练数据滞后或记忆混淆导致的事实性谬误的出现概率,重建数字理性的合法性基础。
价值观重塑引导技术发展回归理性
除了外部知识的锚定,AI系统自身的“伦理内省”与“不确定性管理”同样是治理幻觉不可或缺的内在维度。当前的生成式AI模型普遍存在着一种“过度自信”的病理特征,即在生成毫无事实根据的幻觉内容时,依然赋予其极高的概率置信度,这种“一本正经胡说八道”的现象极具欺骗性。对此,我们需要在算法层面引入严格的认知校准机制,通过贝叶斯神经网络、熵值评估等数学工具,赋予AI一种类似于人类“元认知”的能力——即对自己“知道什么”和“不知道什么”的清晰的自我审视。一个真正具备可信度的智能系统,应当在面对其知识边界之外的问题时,具备保持沉默或主动示弱的权利。它应当能够诚实地向用户输出低置信度警告,或者明确承认数据不足,而非为了满足生成的流畅性而强行编造。将“拒绝回答”的权利还给AI,不仅是技术鲁棒性(robustness)的体现,更是确立“诚实计算”这一核心科技伦理价值的关键步骤。这标志着我们对AI的评价标准从单一的“生成能力”转向了更为综合的“认知诚实度”,这种价值观的重塑将引导技术发展回归理性,避免盲目追求AI全知全能的虚假神话。
从长远的演进图景来看,根治AI幻觉的终极方案,在于推动人工智能从纯粹的“符号处理系统”进化为具备物理交互能力的“具身智能”。幻觉的本质,归根结底是符号系统在脱离了物质世界的物理约束后产生的任意漂移。只有当智能体拥有了感知物理世界的“传感器”和作用于物理世界的“执行器”,它才能在与客观实在的碰撞中获得检验真理的“试金石”。在具身智能的视域下,语言符号不再是悬浮的抽象能指,而是与触觉、力觉、视觉等多模态感官经验紧密耦合的行动指南。当一个AI系统必须为其在物理环境中的操作后果负责时,物理定律的不可违背性将对其认知模型施加最严厉的约束,迫使其推理过程必须符合客观世界的因果逻辑。此时,真理将不再是概率空间中的优选解,而是物理实践中的有效性。这种从“离身计算”到“具身交互”的本体论跃迁,将有望弥合符号与实在之间的鸿沟,使人工智能真正成为人类在探索未知世界时值得信赖的合作伙伴,共同构建一个基于真实、理性与责任的人机共生未来。
文章为社会科学报“思想工坊”融媒体原创出品,原载于社会科学报第1984期第3版,未经允许禁止转载,文中内容仅代表作者观点,不代表本报立场。
本期责编:程鑫云
《社会科学报》2026年征订
点击下方图片网上订报↓↓↓
热门跟贴