文/陈根
最近张文宏拒绝AI进入医疗,引发了很大的关注,也引发了一些争论。我想从专业的角度来跟大家探讨关于AI到底能不能值得完全信任,这背后就涉及到一个非常核心的问题,也就是大模型当前一种被困扰的关键问题,不是算力,也不是算法,也不是数据,而是AI幻觉的问题,这是可以说是AI一个无法真正解决的问题。
AI幻觉的顽疾与本质
在人工智能(AI)迅猛发展的时代,幻觉(Hallucination)已成为大型语言模型(LLM)如ChatGPT、Claude和Gemini的普遍问题。当然,中文大模型我们就不谈了,基本上只能由于娱乐,还谈不上可靠度的层面。
AI幻觉是指AI生成看似合理却实际错误、虚构或误导的内容。这种现象并非技术故障,而是AI体系的结构性缺陷。或者说是AI的“原罪”导致的,因为从一开始AI的数据就来源于人类的知识库,而人类的知识库就充满着大量的谎言与胡说八道。
尽管研究人员一直在尝试通过检索增强生成(RAG)、微调和事实检查等方法缓解,但幻觉始终挥之不去。2025年的一项OpenAI研究指出,幻觉源于训练和评估过程对猜测的奖励,而非不确定性的承认。其实核心并不是这些问题,而是在于AI的最底层逻辑,也就是两个核心问题所导致,这也是我重点跟大家探讨的问题。以及为什么我一直说,AI幻觉问题是无法真正解决的原因。
首先,人类知识数据本身充斥幻觉,导致AI继承并放大这些缺陷;其次,AI的自我生成内容机制形成恶性循环,进一步污染训练数据。这些因素就导致,AI幻觉不是可完全根除的“bug”,而是AI认知范式的内在局限,类似于人类认知的“不可知论”困境。
人类知识数据的固有幻觉——AI的“原罪”继承
AI幻觉的根源在于其训练数据:这些数据本质上是人类知识的镜像,而人类知识远非完美,也并非准确无误,除了已经被验证的一些数学与物理的公式,定律之外,大部分的知识都不是真理,也不是无误的。
LLM通过海量文本学习模式,但这些文本充斥错误、偏见和不确定性,导致AI无法区分“真实”与“似真”。正如MIT Sloan的一项分析所描述的,生成AI的幻觉源于训练数据的固有缺陷,包括虚假信息和偏见。而我们人类知识的“幻觉”体现在几个层面:
首先,数据的不完整性和低频事实问题。OpenAI的研究强调,LLM在预训练中预测下一个词,但低频或任意事实(如宠物生日)无法从模式中可靠推断,只能通过猜测填充。 这类似于人类记忆的“填补空白”机制:大脑基于模式回忆,但容易出错,甚至很多回忆是伴随着幻觉的。
IBM的分析进一步指出,如果训练数据集偏倚或不是绝对正确的代表性,AI会“幻觉”出反映这些偏见的模式。最典型的就是,历史文本中性别或种族偏见,以及历史的虚假叙事会被AI继承,导致输出中出现虚构的“事实”。
其次,人类知识的固有不确定性。联合国大学的一项评论指出,AI幻觉不是“精神错乱”,而是预测错误,源于训练数据的局限和缺乏真实理解。这是因为我们人类知识本身就是构建的,比如科学理论更迭(如从地心说到日心说),历史叙事主观(如不同文化对事件的解读)。
而对于AI而言,其拥有的能力就是类似于人类的表达方式,具备的是优先流畅性而非真相,当数据有矛盾时,它会生成“统计上合理”的虚构。即使训练于“准确”数据,AI的生成本质仍可能组合出新错误,因为它缺乏“世界模型”——人类般的语境理解。
第三,数据质量的系统性问题。AI训练,或者获取的文本数据,本身就容易受人类错误影响,尤其是一些用于分析的结构化数据更容易出错。Berkeley的一项研究指出,训练数据的偏见、过度拟合和合成数据污染进一步放大幻觉。这些问题就构成了我前面所提到的,AI的“原罪”。即,AI从人类“幻觉”中诞生,无法超越其源头。即使清理数据,人类知识的动态性和主观性(如文化神话、政治宣传)使“纯净”数据集成为乌托邦。
OpenAI也承认,幻觉在基础模型中,在数学上不可避免,除非彻底重构训练范式。其实重构训练范式也不能彻底解决AI幻觉的问题,因为我们依然无法回避一个最底层的问题,就是人类的知识库本身的非真理性问题。因此,这一方面揭示AI幻觉的哲学根基:它镜像人类认知的有限性,无法实现柏拉图式“理想形式”的绝对真理。
AI自我生成数据循环——恶性反馈的放大器
AI幻觉的第二个顽固原因在于其自我生成机制:模型输出内容被用于后续训练,形成“AI-on-AI”反馈循环,进一步注入幻觉。
Harvard的一项框架分析指出,这种循环导致生成的不准确污染未来数据,引发“模型崩溃”。这类似于生态系统的退化,即污染源自内部,难以逆转。如果用人类来形容的话,就是精神病患者训练精神病患者,最终可能会导致最初的精神病患者崩溃。
首先,生成内容的固有不确定性。由于LLM基于统计模式生成,而非事实检索,导致输出虽连贯却易虚构。当这些输出回流训练(如通过网络爬取),幻觉就会被强化。《纽约时报》的一篇互动报道显示,AI生成数据越来越难检测,导致未来模型摄入自身输出,输出范围缩小,远离现实。这种现象,如果用一个比喻来说,就是“自食循环”。尤其是,如今60%网络内容由AI生成,训练数据已经变得非常不可靠。
其次,暴露偏见和漂移效应。如果我们在训练时使用“ground truth”数据,但推理时依赖自身生成,这就会导致早期的错误在循环中不断被放大。Nature的一项2024年研究证实,递归生成数据训练会导致模型崩溃。
并且会很快出现多样性丧失,输出趋于单一。这形成恶性循环,带来的后果就是幻觉生成更多幻觉数据,用于下一代模型。然后在循环中,数据模糊和随机解码又会加剧这一问题。
第三,循环的系统性风险。即使使用RAG或知识图谱,数据污染仍不可避免,因为网络已经充斥AI内容。这从哲学上类似于尼采的“永恒轮回”:AI陷入自我复制的循环,无法逃脱内在缺陷。人类干预(如人工标注)虽然可以起到缓解,但规模化训练依赖海量数据,难以彻底净化。
因此,我可以非常明确的说,AI幻觉无法真正解决,因为它根植于人类知识的固有局限和AI生成-训练的闭环逻辑。前者是“输入垃圾,输出垃圾”的放大;后者是自我污染的反馈陷阱。
即使技术进步,如自信度间隔或非幻觉模型,幻觉仍如人类认知的“海森堡不确定性”——本质上不可消除。从这个层面来看,我们就能回答张文宏所提到的这个观点,或许一些人认为AI已经很强大了,张文宏不引入AI是不是落伍了?其实并不是,而是他对AI有比较深刻的了解,至少说明他认知到了AI强大背后的本质问题,也就是AI幻觉不可能被彻底解决。
所以,对于临床的医生而言,尤其是医学院的学生,如果不能对病理机制有非常深刻的理解,而是过早的依赖于AI来辅助诊断的话,最终可能会陷入一种被AI误导的循环中。
热门跟贴