打开网易新闻 查看精彩图片

AI时代最危险的,并不是人们看到的信息太少,而是看到的信息越来越像真的,却越来越难判断真假。过去的信息风险主要来自“缺口”:知识不够、渠道有限、专家稀缺。今天的风险则来自“过剩”:观点、图片、视频、报告、评论都可以被机器低成本复制,信息不再稀缺,可信信息才变得稀缺。

生成式AI真正改变的,是内容生产的边际成本。斯坦福《2025 AI Index》显示,2024年已有78%的组织使用AI,高于上一年的55%;生成式AI私人投资达到339亿美元。 当企业、媒体、个人都能用AI批量生成内容,互联网就从“人类表达的集合”,变成“人类、机器、营销系统和操纵者共同制造的内容洪流”。

这就是信息污染的第一层含义:不是假消息变多这么简单,而是真假之间的边界被系统性稀释。过去一条谣言往往粗糙、孤立、传播链短;现在一条错误信息可以被AI改写成十种语气、配上图表、视频和所谓“引用来源”,再通过社交平台完成二次扩散。它不一定荒诞,反而经常显得很专业。

更危险的是,信息污染会反向污染认知基础。欧洲议会2025年一份简报提到,深度伪造内容近年每六个月翻倍,预计2025年分享量可达800万条,远高于2023年的50万条。当视频也不再天然可信,“眼见为实”这套传统判断机制就失效了。

打开网易新闻 查看精彩图片

信息污染比信息过载更棘手。信息过载只是让人疲惫,信息污染却会让人误判。一个投资者看到伪造研报,可能做出错误交易;一个企业高管读到AI拼接的行业数据,可能误判战略方向;一个普通人被情绪化短视频反复刺激,可能在不知不觉中把噪音当成现实。

这也是为什么AI时代的流量逻辑会放大污染。平台算法天然偏爱高互动内容,而高互动内容往往更情绪化、更戏剧化、更确定。AI恰好最擅长生产这种内容:它可以把复杂问题简化成一句结论,把不确定事实包装成强烈判断,把普通争议改写成群体对立。于是,污染不是偶然出现,而是被流量机制奖励。

在商业世界里,信息污染会制造新的决策成本。过去企业担心“没有数据”,现在更担心“数据太多但不可用”。AI生成的行业白皮书、竞品分析、用户评价、舆情摘要,如果没有来源校验,很可能把错误信息包装成决策依据。表面上效率提高了,实际上只是把判断责任从人转移给了一个不透明的信息系统。

对媒体和内容创作者来说,真正的危机不是AI会不会取代写作者,而是读者是否还相信内容本身。一旦互联网上充斥着大量低成本、相似化、拼接式文本,原创内容的辨识度会下降,严肃表达的传播效率会被稀释。最终,认真核实事实的人反而输给快速制造确定性的人。

打开网易新闻 查看精彩图片

信息污染还会改变公共讨论的结构。公共讨论依赖最低限度的事实共识,而AI生成内容会让共识更加脆弱。人们不再只是意见不同,而是连事实入口都不同。每个人都可以在信息茧房里获得一套看似完整的证据链,最后形成“各自正确”的封闭世界。

因此,AI时代最重要的能力,不是会不会使用AI,而是能不能建立信息免疫系统。这个系统包括三件事:看来源,看利益,看验证路径。凡是没有原始出处、只有情绪判断、无法交叉验证的信息,都应被视为低可信内容。越是激动人心的结论,越需要冷处理。

真正有价值的内容生产,也会因此回到一个朴素标准:不是写得像不像,而是事实链是否扎实;不是观点够不够锋利,而是证据能不能站住。AI可以提高表达效率,却不能替代事实责任。未来稀缺的不是文字,而是可信度;不是观点,而是判断力。

所以,AI时代最危险的不是机器会说谎,而是人类会逐渐放弃辨别。信息污染的终点,不是每个人都被骗一次,而是整个社会开始默认“反正都不可信”。当信任成本高到无法承受,真正受损的就不只是媒体、平台或个人,而是整个现代社会赖以运转的认知秩序。