有没有发现,你问AI一个问题,它给出的答案听起来头头是道,但一查资料发现——引用的论文是假的、提到的法规是编的、连页码都不存在?
更可怕的是,有些机构已经开始用AI回答公共服务咨询、辅助医疗诊断、撰写法律文书了……
清华大学这份《2026年AI幻觉深度研究报告》,看完我只想说:我们可能一直误解了AI的“错误”——那不是偶然的“口误”,而是它“天生如此”的“系统 bug”。
一、幻觉不是“出错”,是“基因”
报告开篇就引用了NIST(美国国家标准与技术研究院)的定义:AI的“幻觉”不叫hallucination,叫confabulation——这个词在医学上指“患者无意识地用虚构内容填补记忆空白”。AI不是在“撒谎”,它只是“不知道自己不知道”。
关键洞察有三条:
- 幻觉是“生成—采信—执行”链条上的系统性风险,不是单点准确率问题。一句错话被用户当真、被团队执行,后果才可怕。
- 基准分数无法替代场景化评估。一个模型在榜单上99%准确,放到医疗场景里,那1%的错可能直接误诊。
- 真正有效的方案不是“一个万能技术”,而是一套复合治理栈:检索锚定、拒答机制、人工复核、日志监测、责任制度,缺一不可。
二、六类幻觉,你遇到过几种?
报告把幻觉细分成六种,不是学术堆砌,而是为了“不同错误配不同护栏”:
三、为什么“高可信品牌”反而更危险?
报告有一个非常反直觉的结论:公共服务、医院、高校、金融机构这类“权威界面”,比普通聊天场景更容易放大幻觉风险。
原因是:用户会因为信任你的品牌,而低估系统的失真风险。
- GOV.UK Chat(英国政府官网的AI问答工具)用户满意度不低,但官方观察到若干幻觉案例后,专门提醒:官方的可信度,会让用户过度信任AI的输出,放弃自行核验。
- 同理,当一家三甲医院、一家上市银行、一所985高校推出AI助手时,用户天然会把它当成“官方说法”。
结论:权威界面不是风险缓冲器,而是风险放大器。
四、高风险场景的“两难”:压低幻觉,可能抬高遗漏
MHRA(英国药品和健康产品管理局)的案例揭示了一个核心权衡:
- 加更严格的护栏(比如只允许模型回答有明确来源的问题),可以显著降低重大幻觉。
- 但代价是:拒答率上升、遗漏率上升、信息不全率上升。
在医疗场景,这就变成了一个“两难”:
- 如果系统频繁说“我不知道”,临床人员可能失去效率,甚至错过关键提示。
- 如果系统为了显得全面而继续补全,则可能直接误导临床决策。
因此,高风险场景的工程设计,必须把“遗漏风险”和“幻觉风险”放在同一张决策表上。
五、给组织的行动框架:六层治理栈
报告最后给出了一个非常实操的框架,不是“技术方案”,而是“组织工程”:
六、五个原创概念,值得记住
报告提炼了五个“压缩式”概念,便于组织内部沟通:
- 概率真相陷阱:把“最像真的输出”误认为“最接近真的答案”。
- 引用幻影链:伪造的引用,以正规格式伪装成已核验知识,在组织中持续传播。
- 低置信高伤害区:模型自己都没把握,组织却让它介入高后果任务。
- 遗漏—幻觉跷跷板:压低幻觉率,可能抬高遗漏率;反之亦然。
- 责任折返门:表面有人工复核,但复核者无时间、无标准、无否决权,只是机械点确认。
总结与启示
一句话总结:AI幻觉不是一个“技术问题”,而是一个“组织治理问题”。
对技术团队:
- 不要追求“零幻觉”——那是不可能的。
- 追求“可识别、可约束、可追责、可持续优化”。
- 在高风险场景,设计“拒答机制”比提升准确率更重要。
对管理层:
- 不要把AI当“万能回答机”,要画任务风险地图。
- 明确哪些任务“不能上生成式AI”,哪些任务“只能辅助”。
- 人工复核必须有意义、可抽检、可追责,否则就是“责任表演”。
对政府/公共机构/医疗机构:
- 品牌可信度会放大幻觉风险,用户会高估你的AI。
- 必须设置显性护栏:明确告知用户“这是AI生成内容,请核实来源”。
真正有竞争力的组织,不是让AI看起来无所不知,而是让它在不知道时停下来、在高风险时退后一步。
报告节选
热门跟贴