周三下午,我点进AI给出的第一条引用链接。页面真实存在,产品也对得上,但那个具体价格数字——页面上根本没有。模型用真实的URL,包装了一个它编造的答案。用户看到蓝色链接,本能信任。这是比"完全捏造链接"更隐蔽的欺骗。
这种现象叫"引用幻觉"。我找了三个主流搜索工具API,对约1000条 grounded 查询做实测——涵盖事实类和产品类问题。没人能告诉我这个错误率是多少,厂商不公布,公开基准测试也不完整。只能自己测。
打开网易新闻 查看精彩图片
我区分出四种失效模式,看起来都是"引用不对",但成因和修复完全不同:
第一类:捏造URL。模型生成看似合理的链接结构(https://[品牌].com/about 这类),实际从未检索。属于参数记忆问题——它学会了URL长什么样,但没真的去查。
第二类:检索后误引。模型确实拿到了文档,但生成的陈述文档不支持。这是本次测试中最常见的类型,也是最难被用户察觉的。
第三类:URL替换。检索了A文档,回答时却标注了B文档的链接。来源和陈述错位。
第四类:锚文本漂移。文档里确实有这句话,但上下文被曲解,原意被断章取义。
缓解措施有效但有限。实测数据显示,没有UI层面的创可贴能解决这个问题——"模型带着真实来源自信地犯错"是管道层面的故障,必须在输出到用户之前加一层引用忠实度校验。
热门跟贴