哈喽,大家好,今天小墨要揭秘一个颠覆认知的发现:取消推荐算法想打破信息茧房?结果反而让社会分裂更严重!科学家的实验真相太扎心了。
哈佛大学凯斯·桑斯坦教授提出的理论,让我们坚信是推荐算法困住了视野,催生了对立。于是,“取消算法、回归时间线推送”成了许多人心中的解药。
但阿姆斯特丹大学与杜克大学的最新研究,却给这份期待泼了冷水,去掉算法不仅没缓解极化,反而让极端声音更猖獗。这背后到底藏着怎样的人性密码与社会真相?
反常识的实验结论
阿姆斯特丹大学的彼得·滕贝里与迈克·拉罗伊在arXiv发表的研究(获《科学》杂志关注),用ChatGPT、Llama等三种大语言模型生成了500个虚拟用户,这些用户复刻了美国选民的真实画像,涵盖年龄、政治倾向等核心特征。
在连续一万个周期的模拟中,无论采用哪种模型,社交网络都必然出现回音室效应、影响力集中、极端声音放大三大问题。
更令人意外的是,当测试六种干预策略时,被视为“公平象征”的时间线随机推送,虽能减少关注度不平等,却让极端内容的传播率大幅上升。
这与我们对BBS时代“平等交流”的美好想象截然相反。
为什么打破信息茧房,反而加剧了极化?
杜克大学克里斯·贝尔在《打破社交媒体棱镜》中给出了答案。他的实验发现,当用户被迫接触对立观点时,非但不会反思,反而会启动“自我认同防御”,让立场变得更极端。
这印证了斯坦福大学的经典实验:支持与反对死刑的人,在阅读正反两方数据后,反而更加坚定原有立场,人类的“选择性评估”本能,让不同观点成了强化偏见的燃料。
贝尔提出的“社交媒体棱镜”理论更戳中本质:平台不是反映世界的镜子,而是扭曲认知的棱镜,它会放大冲突、制造虚假极化,让用户在情绪化对抗中获得身份认同。
真实世界的数据进一步佐证了这一点。
《自然》杂志2021年的研究分析了Reddit平台14年间的51亿条评论,发现2016年美国大选期间,平台极化水平突然飙升,而这一变化主要由新用户推动,老用户立场几乎未变。
这说明极化更多是现实社会分裂的映射,而非算法产物。美国皮尤研究中心的报告更补充了关键细节:推特平台80%的推文来自仅10%的活跃用户,极端声音本就更容易占据话语权。
同时社交媒体还会强化“沉默的螺旋”,当人们发现观点与多数人不同时,会更不愿表达,反而让极端声音显得更主流。 国内的社交生态也呈现类似规律。
人民网曾分析“扶老人指南”“小悦悦事件”的微博讨论,发现观点在互动中不断极化,最终演变为对全民道德的否定,这正是“群体极化效应”的典型表现。
《新闻战线》的研究更指出,社交媒体中的“贴标签”“污名化”行为,会形成“多数人的暴力”,即便没有算法推荐,网民也会自发聚集到观点相似的群体中,用情绪化表达替代理性讨论。
就像推特在莫雷事件中刻意打压支持中国的声音,本质上是平台立场主导了信息流动,而非算法本身,技术只是放大了人类固有的选择偏好。
追溯根源,极化从来不是技术的错,而是人性与社会的必然。
《美国的反智传统》作者理查德·霍夫施塔特早在上世纪60年代就指出,政治偏执是持续存在的心理情结。
无论是纸媒时代还是社交媒体时代,人类都倾向于靠近相似观点、排斥异见。滕贝里在采访中也坦言,实验发现的是一种“稳健的机制”。
即便剥离技术干预,社交网络的结构与人类的心理本能,依然会导向极化。
那些在网上发泄情绪、制造混乱的人,就像《卡拉马佐夫兄弟》中的老卡拉马佐夫,用极端行为寻求关注,而网络的注意力机制,恰恰给了这种行为生存的土壤。
热门跟贴