有人用豆包搜民国总统黎元洪,结果蹦出来一张范伟的剧照。这不是段子,是真实发生的搜索事故。
一张PS图如何骗过AI
官方解释很直接:网络误传惹的祸。2010年电影《建党伟业》里,范伟饰演黎元洪,那张剧照被大量传播,传播度远超真实历史照片。部分图片缺乏明确标注,AI抓取时把"高度相似"当成了"高度相关",直接判为匹配结果。
说白了,AI没能力辨认这是演员还是本人。它只认像素相似度,不认历史事实。
信息幻觉的典型症状
专家把这类错误定义为"信息幻觉"——AI一本正经地胡说八道。大模型的训练逻辑是向网络数据学习,但天生缺乏自我校验能力。当错误信息在网上反复出现,AI会将其当作"正确结论"输出,形成"以讹传讹"的闭环。
这不是豆包独有的问题。所有依赖网络数据的大模型都面临同样困境:数据污染在哪,幻觉就在哪。
根治不了,只能缓解
坏消息是,幻觉目前无法彻底消除。好消息是,行业正在想办法。
现有方案集中在两个方向:一是接入权威数据源,用专业内容对冲网络噪音;二是增强检索校验环节,给AI加个"事实核查"的步骤。但两者都是缓解,不是根治。
事件发酵后,网友开启大规模测试。有人搜其他历史人物验证是否重蹈覆辙,更多人分享被AI错误信息误导的经历。平台方面,相关搜索已修正,部分结果添加了"AI生成内容仅供参考"的提示。
一个值得警惕的信号
这件事的核心矛盾在于:用户把AI搜索当成"答案",但AI只提供"概率最高的匹配"。当网络误传积累足够多,概率就会被扭曲,真相反而出局。
范伟和黎元洪的乌龙,本质是信息生态的缩影——错误信息传播越快,AI越容易采信,进而加速错误信息的再传播。这个循环里,没有赢家。
当AI成为主流信息入口,我们准备好为它的错误买单了吗?
热门跟贴