推特被马斯克收购后,算法推荐系统成了他"言论自由"实验的核心。研究团队最近发现,这套系统推送给用户的内容里,仇恨言论的曝光量比改版前高出近3倍。

研究团队来自纽约大学加州大学伯克利分校,他们追踪了2022年10月到2023年6月的数据。马斯克入主后,平台放宽了内容审核,算法权重向"互动量"倾斜——愤怒比理性更容易获得转发。

马斯克本人的回应很典型:「如果内容违法,我们才会移除。」他把问题抛给了法律边界,而非平台责任。但研究者指出,合法不等于无害,算法放大机制本身就是选择。

这像餐厅把最辣的菜摆在入口——顾客点单率飙升,但胃药销量也跟着涨。推特的广告主们正在用脚投票:2023年平台广告收入同比下滑约50%。

一位前推特工程师在离职帖里写,他曾向团队建议增加"情绪冷却期"的推荐延迟,被以"影响用户停留时长"驳回。现在这套算法仍在运行,每秒处理超过5万条内容的分发决策。