Google正在给AI搜索加一项新功能:把Reddit等论坛里的帖子标成"专家建议",直接塞进AI生成的回答里。这听起来像是让搜索更接地气了——毕竟很多人确实会去论坛找真实经验。但问题也跟着来了:这些"专家"到底是谁?他们说的话能信吗?
按照Google的设计,当你在搜索框里提问时,AI Overview会抓取论坛里的具体引文,附上发帖人的名字或社区名称,还会链接到原讨论串。同时,你的新闻订阅内容也会被优先展示,来源链接会直接嵌在回答文字旁边,鼠标悬停还能预览网页。这些改动确实让信息溯源变方便了。
但TechCrunch指出了一个尴尬的事实:AI不太分得清什么是正经建议,什么是 sarcasm(讽刺)和玩梗。Google的AI Overview以前就把Reddit上的玩笑当成严肃建议重复过。更麻烦的是生成式AI本身的毛病——幻觉。它会一本正经地编造不存在的新闻摘要、虚构的法律建议,而且语气笃定得像真的一样。
《纽约时报》之前做过分析,AI Overview的准确率大概在90%左右。这个数字听起来不低,但换算一下:每10条回答里就有一条是错的。如果你正好碰上了那10%,代价可能是浪费时间、做错决定,甚至更糟。
Google的这些更新,某种程度上是在把核实信息的责任推回给用户。来源链接做得再显眼,也得你主动去点、去查、去交叉验证。论坛里的"专家"没有资质审核,发帖人的背景你一无所知,一条被高赞的评论可能只是说得漂亮,而非真的正确。
所以现在的局面是:Google的AI搜索确实变丰富了,能挖到更多一手经验;但"丰富"不等于"可靠"。标了"专家建议"的引文,和新闻订阅里的付费内容,需要你区别对待。前者是参考,后者相对可信,但两者都不该成为你停止思考的终点。
最安全的做法大概是:把AI回答当成起点,而不是答案。看到一条来自论坛的建议,去原帖看看上下文——发帖人是在认真分享,还是在反讽?有没有其他人反驳或补充?如果是重要决策,多找几个独立来源确认。Google给了工具,但用不用、怎么用,还是取决于你。
这件事背后其实有个更大的趋势:平台越来越依赖用户生成内容来填充AI的回答,但用户生成内容的本质就是鱼龙混杂。Reddit的价值在于真实、多元、有时效性,但这些优点和"准确""权威"完全是两回事。Google把它们打包成"专家建议",是一种营销话术,也是一种责任转移。
对普通用户来说,这意味着搜索的门槛变高了。以前你只需要判断网页靠不靠谱,现在还得分辨AI有没有误读来源、有没有把玩笑当真、有没有把匿名网友当成专家。技术让信息获取变快了,但核实信息的工作量一点没少。
所以下次看到Google AI Overview里标着"专家建议"的论坛引文,不妨多留个心眼。那可能确实是个行家,也可能只是个打字快、会玩梗的普通人。90%的准确率保护不了那10%的失误,而你的判断力,是最后一道防线。
热门跟贴