最近一则消息引发热议:测试显示ChatGPT最新版本在回答问题时,多次引用了马斯克旗下的Grokipedia作为信息来源。继Claude之后,又一主流AI模型“中招”,社区瞬间炸锅。
但这真的是什么大事吗?
冷静下来看,这件事的技术本质其实很简单。Grokipedia是在这些模型完成训练之后才上线的,也就是说,模型根本不知道这个网站是什么来头。当你让AI进行网络搜索时,它会从大量链接中挑选看起来最相关的结果。Grokipedia恰好在某些搜索中排名靠前,于是被选中了。这跟“用AI训练AI”完全是两码事。
然而,恐慌情绪还是蔓延开来。
有人担心右翼偏见会渗透进AI回答。有人质疑为什么要用一个“AI生成的维基百科”当来源。还有人开玩笑说,等着AI引用《我的奋斗》吧。
这些担忧背后有一个更深层的问题:我们对AI信息来源的焦虑,折射出我们对信息本身的不信任。
事实是,维基百科也有它的偏见问题。长期活跃的编辑者形成了自己的文化圈层,“可靠来源”的定义权掌握在特定群体手中。Grokipedia的出现,某种程度上是对这种垄断的一次实验性挑战。它让AI来审核人类编辑的内容,看看会发生什么。
当然,用户发现的问题也很真实。有人亲手修复了Grokipedia上关于《魔法少女小樱》的大量幻觉内容,每一集的剧情简介几乎都是瞎编的。这提醒我们,任何信息来源都需要验证,无论它看起来多么权威。
有趣的是,当有人亲自测试时,用同样的问题问ChatGPT,结果引用的是维基百科、PBS、大英百科全书,根本没有Grokipedia的影子。媒体报道的“多次引用”与实际体验之间的差距,本身就值得玩味。
最终,这可能只是一个很快会被修复的小问题。OpenAI只需要把Grokipedia加入黑名单就完事了。但真正的挑战在于:随着网上AI生成的内容越来越多,AI如何避免陷入“摘要的摘要”这个无限循环?
一位评论者说得好:这让我们回到了AI出现之前的老问题,人们获取信息却从不核实来源。
也许,我们对AI寄予了太高的期望,把它当成通往客观真理的魔镜。但它终究只是一个工具,反映的是整个互联网的混乱与偏见。在这个信息过载的时代,独立思考和交叉验证的能力,比以往任何时候都更加珍贵。
reddit.com/r/singularity/comments/1qn325q/after_claude_now_chatgpt_is_also_uses_grokipedia/