上周三,一位研究古罗马的博士生在谷歌搜索"Roma was founded in",AI Overview直接甩出答案:公元前753年4月21日。日期精确到日,语气笃定得像刻在石碑上。

问题是,这个数字来自神话传说,不是考古证据。学界公认的建城时间其实是个模糊区间,误差可能超过百年。但谷歌的AI把传说包装成了事实,还配了句「罗马传统认为罗慕路斯于该日建城」——前半句像教科书,后半句小字像免责声明,大多数人根本看不到。

这并非孤例。AI Overview上线三个月,错误案例在社交平台堆成了山:建议用胶水粘披萨、说奥巴马是穆斯林、把洋葱列为有毒蔬菜。谷歌的应对策略是默默撤下错误答案,从不公开认错。

搜索引擎曾是信息的过滤器,现在成了幻觉的放大器。区别在于,以前的错误链接至少带着网址、作者、发布时间,你能判断来源是否靠谱;AI Overview把这一切都吞进了黑箱,只吐出一个"干净、直接、确定"的答案。

那位博士生后来发了条推文:「我的学生开始用AI Overview写论文脚注了。」