AI爆火的时代,真和假的边界,变得越来越模糊了。

据媒体报道,利用AI技术仿冒名人带货的现象屡见不鲜,张文宏、于东来等公众人物此前纷纷“中招”;有人借助AI生成的假图,在电商平台上恶意申请“仅退款”;更有不法分子通过AI换脸技术进行敲诈勒索,此类事件时有发生,令人防不胜防……

如今,大模型能写文章、编代码、做PPT,还能生成以假乱真的图片与视频。技术的狂飙突进,带来了生产力的解放,却也悄然稀释了我们对真相的感知能力。

近日播出的2025腾讯ConTech大会上,一场关于“概率真相”的讨论振聋发聩。会上指出,随着AI谣言日益逼真,“眼见为实、耳听为虚的时代已经过去”,我们要做好准备,“迎接概率真相的时代”,重新校准对真相的判断方式。

这不仅是业界的忧思,更是对每一个身处数字洪流中的普通人的警醒。当AI让造假变得如呼吸般自然,我们比任何时候都更需要一种稀缺的精神——较真。

打开网易新闻 查看精彩图片

图注:2025腾讯ConTech大会“共智求真”圆桌现场

曾几何时,造谣还需要一点“文采”或者简单的P图技术,而现在,生成式大模型将这一切门槛夷为平地。

今天的AI谣言,早已不是拙劣拼接的图像,或漏洞百出的文字,正如清华大学邓志东教授所言,它们逻辑自洽、细节丰富、视觉逼真,有时候甚至“过于完美”。

从深度伪造的明星诈骗视频,到足以乱真的突发新闻图片,虚假信息,进入了工业流水线般的生产节奏,可以被批量制造出来。更可怕的是,我们正在步入一个“概率真相”时代。

大模型的本质,是基于海量数据,预测下一个字符,它并不理解什么是真理,它只在乎什么是最可能的组合。这就导致了AI幻觉的产生。它能一本正经地胡说八道,编造从未发生过的历史,杜撰不存在的法律条文。

大模型的幻觉不仅极具迷惑性,更形成了一种恶性循环。AI生成的虚假内容,被发布到互联网上,又成为了下一代AI训练的数据养料。这种数据回旋镖,污染信息生态,让我们赖以生存的数字世界,充斥着似是而非的噪点。

当眼见不再为实,当真相变成了一个需要计算的概率值,社会的信任基石便开始动摇。

面对AI编织的精美谎言,人类的防线为何如此脆弱?除了技术上的不对等,更深层的原因在于——人性的弱点,正被算法精准拿捏。

在腾讯新闻较真10周年的白皮书中,有一组调研数据令人深思:只有47%的受调研者会在遇到真假难辨的信息时去查一下;而高达93%的受调研者表示非常厌倦“不确定性”。

这揭示了一个残酷现实:我们渴望确定,渴求真相,却普遍缺乏核实的耐心。

AI时代的谣言制造者深谙此道,他们利用AI大模型炮制“愤怒诱饵”,挑动情绪,制造对立和偏见。因为厌倦“不确定性”,我们选择了盲信;因为懒得较真,我们将大脑的控制权拱手让给了虚假信息。

而要穿透“概率真相”的迷雾,需要全社会共同努力。

首先,技术带来的混乱,理应由技术规范先行化解。例如,强制为AI生成内容,添加清晰的标识,这不仅是透明,更是责任。

而在源头规范之外,作为信息流转的内容平台,更应该扮演好把关人的角色。

在流量为王的时代,坚守真实或许显得格格不入,但却无比珍贵。平台不应只是信息的管道,更应成为可信内容的过滤器。像腾讯新闻《较真》这样的事实核查机制,正是对抗信息污染的重要示范。

当然,最终的防线,仍在于个体的认知觉醒。

必须承认,依靠肉眼凡胎,去对抗日新月异的AI造假技术,注定力不从心,但这并不意味着我们束手无策。在这个时代,“较真”不应只是态度,而应成为一项生存技能。

当看到耸人听闻的标题时,不妨让子弹飞一会儿;当情绪被瞬间点燃时,不妨反问自己一句,有没有可能是假的;当面对未经证实的信息时,将“默认信任”切换为“暂且存疑”。

总之,不要让情绪替代理性,不要让立场掩盖真相。

AI时代,技术可以模糊现实与虚拟的边界,但它无法模糊真与假的价值。在这个充满不确定性的概率世界,我们都应该做一个清醒的“较真者”。