打开网易新闻 查看精彩图片

智东西
编译 吴浪娜
编辑 漠影

智东西9月15日消息,AI聊天机器人在破除阴谋论上取得重要突破,能有效削弱一些信众对阴谋论的笃信程度,论文登上9月13日的国际顶级学术期刊Science封面。

很多人对阴谋论深信不疑,致使一些荒谬谣言层出不穷。麻省理工学院研究团队发现,GPT-4 Turbo模型可以在对话中通过量身定制的呈列证据、个性化的深度聊天,将一些阴谋论者对阴谋论的信任度平均降低20%,且效果持续了至少2个月。这种干预说明了负责任地部署生成式AI有助于辟谣和缓解冲突。

论文题目为《通过与AI对话持续减少相信阴谋论(Durably reducing conspiracy beliefs through dialogues with AI)》。

打开网易新闻 查看精彩图片

▲论文内容截图(图源:Science)

论文链接:https://www.science.org/doi/10.1126/science.adq1814

一、足够有力的证据是否能说服人们放弃阴谋论?

无论是关于月球登陆从未发生过的错误观念,还是关于新冠疫苗含有微芯片的虚假说法,阴谋论比比皆是,有时甚至会产生危险的后果。对未经证实的阴谋论的信任是大众关注的重要议题,也是学术研究的焦点。

尽管这些阴谋论往往非常不可信,但仍有许多人选择相信。著名的心理学理论认为,许多人想要采用阴谋论以满足潜在的心理“需求”或动机,因此他们很难被事实和反证据说服,来放弃这些毫无根据的阴谋论。这篇论文对这一传统观点提出质疑。是否有可能用足够有力的证据说服人们走出阴谋论的 “无底洞”。

“传统观点会告诉你,那些相信阴谋论的人很少会改变他们的想法,哪怕是根据证据。”论文的第一作者托马斯·科斯特洛(Thomas H. Costello)说。然而,这项新研究提供了不同的观点。“我们的研究结果从根本上挑战了这种观点:一旦掉入无底洞相信阴谋论,证据和论点就几乎没有用处了。”研究团队写道。

二、与GPT-4 Turbo进行3轮对话,用证据驳斥阴谋论观点

研究假设,基于事实性、纠正性信息的论据可能会显得无效,因为它们缺乏足够的深度和个性化。为了验证这一假设,研究人员利用了大语言模型的进步,这是一种AI,能够获取大量信息并生成定制论据。因此,大语言模型可以产生具有批判性思维的对话,直接反驳每个人所引用的支持其相信阴谋论的特定证据。

在两次实验中,2190位参与者用自己的话阐述他们所相信的阴谋论,以及他们认为支持这一理论的证据。这些信息被输入到AI系统中。参与者还被要求以100分的标准来评估他们所相信的阴谋论的真实程度。

然后,他们与大语言模型GPT-4 Turbo进行了三轮对话,在我们的提示下,GPT-4 Turbo回应了这些具体证据,同时试图降低参与者对阴谋论的信任度。或者作为对照条件,与AI就不相关的话题进行对话。对话结束之后,再次评估参与者他们认为阴谋论的真实性。

打开网易新闻 查看精彩图片

▲参与者与AI对话的设计和流程,一共进行三轮对话。上图展示一名参与者与AI对话后,其对阴谋论的信任度降低了60%。(图源:Science)

三、参与者对阴谋论的信任度平均降低20%,效果持续两个月

研究结果显示,与AI讨论阴谋论的参与者对所选阴谋论的信任度平均降低了20%。这种效果持续了至少2个月,丝毫未减。而那些讨论非阴谋论话题的人对真实性的评分只略有下降。

研究团队谈道,在各种阴谋论中,都能持续观察到这种效果,包括涉及暗杀肯尼迪、外星人和光明会的经典阴谋论,到与COVID-19和2020年美国总统大选等热点事件相关的阴谋论。值得注意的是,AI并没有减少参与者对真实阴谋论的信任度。

打开网易新闻 查看精彩图片

▲与AI对话能持久降低阴谋论可信度,即使是坚定的阴谋论者也不例外。对话后参与者对所选阴谋论的平均信任度降低,效果持续两个月。(图源:Science)

研究人员补充说,效果的大小取决于多种因素,包括阴谋论对参与者的重要性以及他们对AI的信任程度。

“有大约四分之一的参与者,在实验开始时相信阴谋论,但在结束时不再相信。”科斯特洛说。

“在大多数情况下,AI只能逐渐削弱——使人们变得更加怀疑和不确定——但少数人完全摆脱了他们的阴谋论信任度。”

研究人员补充说,降低参与者对一个阴谋论的信任,也能在一定程度上降低他对其他阴谋论的信任。阴谋论世界观普遍减少,并增加了反驳其他阴谋论者的意图。这种方法在现实世界中可能有应用——例如,AI可以回复社交媒体上阴谋论相关的帖子。

此外,一个专业人员评估了AI提出的128个样本,其中99.2%是正确的,0.8%是有误导性的,无一虚假。

结语:专家质疑AI说服阴谋论者的实际应用

研究说明,阴谋论的“无底洞”可能确实有一个出口。心理需求和动机本质上并不会导致阴谋论者对证据视而不见——他们只是需要正确的证据。实际上,通过展示大语言模型的说服力,该研究既强调了生成式AI在负责任地使用时可能产生的积极影响,也强调了最大限度地减少不负责任地使用这项技术的紧迫性。

未参与该工作的剑桥大学教授桑德尔·范·德林登(Sander van der Linden)质疑人们是否会在现实世界中自愿与这样的AI互动。

他还谈道,目前尚不清楚如果参与者与匿名人类聊天是否会得到类似的结果,同时也有关于AI如何说服阴谋论者的问题,因为该系统还使用了诸如同情和肯定等策略。

但是,他补充说:“总的来说,这是一个非常新颖且可能重要的发现,也是AI如何被用来打击错误信息的一个很好的例证。”

来源:Science、《卫报》