近十年来,研究人员一直在收集证据,表明社交媒体平台 Facebook 过度放大了低质量内容和错误信息。

因此,2023 年当《科学》杂志发表了一项研究,发现 Facebook 的算法在 2020 年美国大选期间并非错误信息的主要驱动因素时,这着实让人有些惊讶。

这项研究由 Facebook 的母公司 Meta 资助。Meta 的几名员工也是作者团队的一部分。它引起了广泛的媒体报道。Meta 全球事务总裁尼克·克莱格(Nick Clegg)也对此大加称赞,称这表明该公司的算法“对两极分化、政治态度或信仰没有可察觉的影响”。

但最近,由马萨诸塞大学阿默斯特分校的 Chhandak Bagch 领导的一组研究人员对这些发现提出了质疑。在同样发表在《科学》杂志上的一封电子信函中,他们认为,研究结果可能是因为 Facebook 在研究进行时对算法做了调整。

在一封回应的电子信函中,原研究的作者承认,如果 Facebook 以不同的方式改变其算法,他们的结果“可能会不一样”。但他们坚称自己的结果仍然成立。

整个这事儿凸显了大型科技公司资助并促进对其自身产品的研究所引发的问题。也凸显了对社交媒体平台进行更独立监督的关键需求。

心存疑虑的商家

心存疑虑的商家

大型科技公司已经开始大力投入其产品的学术研究。它也一直在更广泛地大力投资于大学。例如,Meta 及其首席执行官马克·扎克伯格已共同捐赠了数亿美元给全美 100 多所学院和大学。

这与大型烟草公司曾经的做法类似。

在 20 世纪 50 年代中期,烟草公司发起了一场协同的行动,对越来越多表明吸烟与一系列严重健康问题(如癌症)有关联的证据表示怀疑。这并非明确伪造或操纵研究,而是有选择地资助研究,并引起人们对不确定结果的关注。

这有助于形成一种说法,即没有确凿的证据能表明吸烟会致癌。反过来,这使烟草公司能够一直持续到 20 世纪 90 年代保持负责任和“善意”的公众形象。

积极的一面

积极的一面

2023 年发表在《科学》杂志上的由 Meta 资助的研究声称,Facebook 的新闻推送算法减少了用户接触不可信新闻内容的可能性。作者表示“Meta 没有出版前的批准权”,但承认 Facebook 开放研究与透明度团队“在执行整个项目方面提供了大量支持”。

该研究采用了实验设计,参与者,即脸书用户,被随机分配到对照组或治疗组。

对照组继续使用脸书的算法新闻推送,而治疗组则获得了按时间倒序呈现内容的新闻推送。该研究试图比较这两种类型的新闻推送对用户接触来自不可信新闻来源的潜在虚假和误导性信息的影响。

实验既稳健又设计良好。然而,在实验进行的短时间内,Meta 改变了其新闻推送算法,以推送更多可靠的新闻内容。这样一来,它改变了实验的控制条件。

原始研究中报告的对错误信息的接触减少可能是由于算法的改变。但这些改变是暂时的:几个月后的 2021 年 3 月,Meta 将新闻推送算法恢复到了原来的状态。

在给科学的一份声明中关于这场争议,Meta 表示当时已向研究人员明确了这些变化,并且支持克莱格关于论文中研究结果的声明。

前所未有的力量

前所未有的力量

在淡化算法内容管理在诸如错误信息和政治两极分化等问题中的作用时,该研究成了散播对社交媒体算法有害影响的怀疑和不确定性的引路人。

需要明确一点,我并不是说开展 2023 年原始研究的那些研究人员误导了公众。

更为重要的是,社交媒体公司有权在该项研究所涉及的平台上推广某些研究。反过来,这有利于塑造公众舆论。

它可能会导致一种情况,就是对算法影响的怀疑和质疑变得习以为常——或者人们干脆不再理会。

所有这些都凸显了为何应当强制要求平台提供大规模的数据访问,以及有关其算法系统变化的实时更新。

当平台掌控对“产品”的访问权限时,它们也掌控着与其影响相关的科学研究。最终,这些自行研究的资助模式使平台将利润置于人之前,并将注意力从对更高透明度和独立监督的需求中转移开。

本文由 The Conversation 在知识共享许可下再度发布。

由 The Conversation 提供