打开网易新闻 查看精彩图片

3周前,我开始用ChatGPT追踪伊朗战争新闻。初衷很简单:测试聊天机器人跟传统新闻网站的实时信息差距,顺便应付当时铺天盖地的信息轰炸。

但某天凌晨刷完一轮更新后,我突然停住——我没点过一次引用链接,没核实过任何信息。ChatGPT说什么,我就信什么。这种信任来得悄无声息,像手机自动同步照片一样自然,直到存储满了才发现问题。

AI搜索的"舒适陷阱"

AI搜索的"舒适陷阱"

用AI查新闻并非一直可行。不久前的ChatGPT还无法获取实时信息;谷歌的AI概览曾建议用户在披萨里加胶水让奶酪粘住,还推荐"每天吃一块石头"。那时候AI搜索的缺陷显而易见,用户自然保持警惕。

过去一年变化显著。模型准确度提升,信息时效性增强(多数聊天机器人已能实时联网),引用来源也更规范。英国通信管理局Ofcom最近将这类工具定义为"答案引擎"——不再只是指向信息,而是直接用对话式语言提供答案。

这套机制对低风险的快速查询确实有效:查食谱、问定义、找旅行建议、比产品参数。对话格式还能帮你追问、澄清、更快定位所需,比逐一点击链接高效得多。

但正是这种"变好",构成了新问题。

当警惕性被流畅感溶解

当警惕性被流畅感溶解

AI搜索漏洞百出时,用户会主动核查。当它变得足够好用,核查冲动反而消退。对话格式的"人性化"设计加速了这一过程——我们天生更容易信任"说话"的东西,而非"陈列"的东西

传统搜索呈现的是信息地图,AI搜索直接给你目的地照片。后者更省力,但也让你失去了对地形的感知。我的伊朗战况追踪就是典型案例:ChatGPT的叙述连贯、语气平稳、时间线清晰,我完全没意识到自己已经放弃了交叉验证的习惯。

这种信任转移并非AI独有的现象。社交媒体算法推荐、个性化信息流早就在做类似的事。但AI搜索的隐蔽性更强——它披着"工具"的外衣,输出却带着"结论"的确定性。

信息核查的"肌肉萎缩"

信息核查的"肌肉萎缩"

我后来强迫自己回头核实了那3周的部分内容。结果不算灾难:没有重大事实错误,但存在明显的选择性呈现。某些关键细节被省略,部分来源偏向单一信源,时间戳的精确度也被模糊处理。

这些不是"幻觉"(AI编造信息),而是更难以察觉的策展偏差。ChatGPT没有撒谎,它只是以某种方式组织真相,而我的大脑已经习惯了不追问。

这让我想起早期GPS用户的经历:过度依赖导航导致空间认知能力下降,有人甚至开进河里。AI搜索正在制造类似的信息导航依赖——我们越来越擅长获取答案,越来越疏于判断答案的边界

重建" friction "的必要性

重建" friction "的必要性

部分平台开始尝试解决方案。Perplexity会在回答中强制插入来源卡片,Grok在X平台上实时标注信息时效,部分学术数据库要求AI摘要必须附带原始文献链接。这些设计都在人为制造"摩擦",打断无缝的信任流动。

但根本问题或许在于用户端。我现在的做法是:用AI搜索做第一轮信息筛选,但强制自己每周至少两次完全回归传统方式——打开原始报道,对比不同信源,手动拼凑时间线。这个过程更慢、更累,但能校准被AI平滑过的认知惯性。

技术哲学家Evan Selinger曾警告,过度便利的设计会侵蚀我们的审慎能力。AI搜索的进化方向恰好与此相反:它追求零摩擦、即时满足、一站式解决。这对效率是福音,对判断力可能是慢性消耗。

那3周的伊朗战况追踪教会我一件事:信任不该是默认设置,而应是主动选择。当工具变得太好用,我们反而需要更刻意地保持怀疑——不是为了否定技术,而是为了保留说"等等,让我再看看"的能力。

你上次手动核实AI给出的信息,是什么时候?