一项新工具显示,可以在 X 动态中降低党派对立的激烈程度——既不需要删除政治帖子,也不需要平台的直接合作。

由斯坦福大学主导的研究,发表在 科学期刊上,亦表明未来可能让用户掌控自己的社交媒体算法。

一个无缝的在线工具,该工具会重新排序内容,当帖子包含反民主态度和党派敌意时(例如倡导暴力或监禁对立党派的支持者),该工具会将其在用户动态中的位置降低。

在一项为期10天的实验中,约有1200名参与者使用了该工具,在 2024 年选举期间,那些反民主内容被降级的参与者对对立党派的看法变得更加积极。这一效果也得到了两党的共识,适用于自认为是自由派或保守派的人。

“社交媒体算法直接影响我们的生活,但直到现在,只有这些平台能够理解和塑造这些算法,”斯坦福大学工程学院的计算机科学教授、该研究的高级作者迈克尔·伯恩斯坦说。“我们已经展示了一种方法,让研究人员和最终用户拥有这种能力。”

伯恩斯坦补充道,这个工具还可以为创造干预措施提供新的思路,这些措施不仅可以减轻党派仇恨,还可以促进更高的社会信任和更健康的跨党派讨论。他还是斯坦福人本人工智能研究所的高级研究员。

在这项研究中,团队借鉴了斯坦福大学的先前社会学研究,识别出可能威胁民主的反民主态度和党派仇恨的类型。除了主张对对方党派采取极端措施,这些态度还包括拒绝任何两党合作的声明、对有利于另一党观点的事实持怀疑态度,以及愿意放弃民主原则以帮助自己偏爱的党派。

防止情感劫持

防止情感劫持

研究合著者珍·蔡表示,看到这种内容时,通常会产生一种立刻且无法避免的情感反应。

“这种极具争议的内容可以通过让人们在看到它的瞬间感到不快来吸引他们的注意力,”斯坦福人文与科学学院的心理学教授蔡说。

这项研究汇集了华盛顿大学、东北大学以及斯坦福大学的研究人员,从计算机科学、心理学、信息科学和传播等多个学科共同研究这个问题。

研究的第一作者、伯恩斯坦实验室的前博士后研究员提齐亚诺·皮卡尔迪创建了一个网络扩展工具,结合了一个人工智能大型语言模型,扫描这些反民主和极端负面的党派情绪的帖子。该工具随后在几秒钟内重新排序用户的X动态。

然后,在单独的实验中,研究人员让一组同意修改其动态的参与者,在10天内查看这种类型的内容在X中被降级或升级,并将他们的反应与对照组进行比较。没有帖子被删除,但更煽动性的政治帖子在他们的内容流中显示得更靠后或更靠前。

皮卡尔迪说,对极化的影响是显而易见的,他现在是约翰霍普金斯大学计算机科学的助理教授。

“当参与者接触到较少的这类内容时,他们对对立党派的人感到更友好,”他说。“当他们接触到更多这类内容时,他们感到更加冷漠。”

小变化可能带来大影响

小变化可能带来大影响

在实验前后,研究人员对参与者对对立党派的感受进行了1到100的评分调查。在那些负面内容被降低优先级的参与者中,他们的态度平均改善了两分——相当于美国普通人群在三年内态度变化的估计。

关于社交媒体干预来减轻这种极化的研究结果各不相同。研究人员表示,这些干预措施也相对粗糙,比如按时间顺序排列帖子或完全停止使用社交媒体。

皮卡尔迪表示,这项研究表明一种更细致的方法是可行且有效的。它还可以让人们对他们所看到的内容有更多的控制,这可能会整体上改善他们的社交媒体体验,因为对这些内容进行降级处理不仅减少了参与者的两极化,还减少了他们的愤怒和悲伤。

研究人员目前正在探索其他类似方法的干预措施,包括旨在提升心理健康的干预。该团队还公开了当前工具的代码,让其他研究人员和开发者能够使用它来创建独立于社交媒体平台算法的排名系统。

更多信息: Tiziano Piccardi 等,在算法社交媒体信息流中重新排名党派敌意会改变情感两极化,科学(2025)。 DOI: 10.1126/science.adu5584. www.science.org/doi/10.1126/science.adu5584