导读
自媒体上虚假信息泛滥该怎么办?作为社交媒体巨头的Facebook已经采取措施,通过标明虚假信息的方式来减少不实信息的传播,但效果并不明显。要增强“打假”效果,Facebook应该朝哪个方向努力?另外,Facebook的传播模式造成了“回音室”现象,即用户只能看到与自己观点相近的信息。Facebook是否有责任打破回音室的限制呢?
在传播“事实性”信息方面,作为自媒体代表的Facebook面临着两大挑战。
信息的审查与核实缺位
第一个挑战比较明显,那就是缺乏对信息的审查与核实,导致虚假信息的大规模传播。
对Facebook来说,只要信息卖座,能博人眼球,都有被广泛传播的可能,至于信息准确与否则另当别论。这样一来,虚假信息可能实现病毒式传播,几个月前的信息稍加修改,就能掩人耳目充当新闻。
为了解决这一问题,Facebook正在绞尽脑汁想办法。也许,这是因为社交媒体的用户已经不怎么相信网络上流传的信息了。
从2015年1月起,Facebook已经开始实行措施,限制虚假信息的传播了。有些信息会被许多用户标记为虚假信息,那么这样Facebook就可以对症下药。当这样的信息被社交媒体用户阅读时,会出现虚假消息的警告。但是Facebook并不是随随便便限制信息的传播的。只有当相当数量的用户将消息标为“虚假”,Facebook才会采取行动。然而BuzzFeed的一项分析显示,这项措施的效果并不理想。
Facebook下一步计划就是从简单的“标注虚假信息”发展到详细标出“哪里虚假、哪里具有误导性”。这样做不仅可以限制虚假消息的传播,还可以从源头上防止虚假信息的产生。如果当用户想要分享不实的信息时,他们就会看到其他用户对这条信息的各种质疑。当然,用户可以无视提醒继续分享信息,但是信息的分享量会下降。
其实,这个“质疑提示”的主意是《国家地理》的Brad Scriber在三月举行的“科技核实会议”上提出的。
“回音室”里众口一词
第二个挑战就是,Facebook的设计使得已经接触过“不准确”信息的用户难以改变既有观念。说得简单点,就是Facebook倾向于向用户传播与该用户已经阅读过、赞过、分享过的信息相似的信息。这就意味着Facebook强化了人类倾向于阅读、信赖与自己观念相符信息的天性,最终导致“回音室”现象的形成——在回音室里,人们的意见很单一,听不到反对的声音。
由于社交媒体上的分享模式越来越复杂,所以“回音室”是否形成还很难做出客观评估。但是,社交媒体上已经形成了排外的“观点俱乐部”不是没有可能。在这些“观点俱乐部”中,另外一方的观点完全被排除在信息推送之外。比如说在美国,不喜欢特朗普的人很难看在自己的信息推送中看到支持特朗普的信息。甚至有统计表明,只有23%的用户表示自己的Facebook好友中存在与自己政治观点相左的好友。
这样造成的结果就是——一条认为希拉里观点存在问题的消息在希拉里反对派及其支持者中更易于传播。用户更容易看到和自己观点相近的用户分享的信息。最终导致看到信息的用户并没有核实信息的原动力,想核实信息的用户看不到不实的消息。
在4月份美国大选时,Facebook发出了一段视频,号召人们“发现事实的另一面”,并且接受自己有可能犯错的可能性。这也许是Facebook的一种自我炒作,不过也很有可能是其在为打破“回音室”所做出的努力。
但不论Facebook的只是意图是什么,这种做法具有独到之处。至少Mozilla不会提醒网民他们正在浏览的网页有可能是钓鱼网站,当地的报纸也不会提醒读者应该再看看另外一份政治观点不同的报纸。
最后一个问题就是——如果用户并不在乎所阅读的信息是否全面多样,Facebook还要多管闲事么?
其实早在Facebook诞生之前,信息的党同伐异、虚假信息的传播就已经存在。很可能在Facebook被淘汰的时候这样的问题依然得不到解决。但是,Facebook的确在这类信息的传播中起到了前所未有的推波助澜作用。应对这一挑战,需要更多的团体联合起来,并在Facebook所采用的方法上继续创新。
现在十分缺乏的信息就是如何使得持不同观点的人倾听另一方的观点,让已经接触到不实信息的人接触到更加准确的信息。说到底,信息分享模式的改变是用户驱动的。如果有足够多的Facebook用户认为某问题十分重大,那么Facebook就会着手解决。
本文由知媒独家编译,转载合作请联系wangyizhimei@163.com。
热门跟贴