2005年,美国人每天花11分钟读新闻。2023年,这个数字变成了7分钟——同时,他们每天刷社交媒体超过2小时。
内容没变差,是承载内容的"建筑"换了房东。新闻业从业主变成了租客,而收租的算法,一本小说都没读过。
从"你决定看什么"到"它猜你想看什么"
传统媒体的权力结构很直白:主编坐在会议室里,决定头版放什么、头条写什么。这个模式运行了上百年,直到2006年Facebook推出动态消息(News Feed),游戏规则被改写。
动态消息不是简单的信息列表。它是一个排序系统,用机器学习预测"用户最可能互动的内容",然后按概率高低推送。换句话说,编辑权从人手里移交给了数学模型。
这个移交的速度快得惊人。2010年,Facebook用户每天花17分钟在平台上。到2023年,这个数字翻了6倍。不是人们突然爱上了社交,是Feed的"猜你喜欢"越来越准——准到让人停不下来。
Feed的核心逻辑不是"给你最好的",而是"给你最停不下来的"。
这两个目标经常冲突。调查报道需要15分钟专注,猫咪视频只需要3秒反应。算法不评判价值,只计算停留时长、点击率、分享概率。结果就是:深度内容在分发层面系统性吃亏。
新闻业怎么变成了"内容供应商"
2010年代,传统媒体经历了一场集体幻觉。它们以为入驻社交平台是"拓展渠道",实际上是在帮房东装修房子。
《纽约时报》2014年入驻Facebook Instant Articles,让完整文章直接在平台内打开。流量涨了,但用户数据、广告收入、品牌认知全留在平台侧。新闻机构变成了Feed里的一个内容模块,和表情包、短视频并列竞争。
更隐蔽的伤害是编辑权的流失。当记者写完稿子,算法决定多少人能看到、看到多久、在什么场景下看到。主编的"版面语言"被拆解成几百个信号特征:标题是否含数字、图片有没有人脸、发布时间是否匹配用户通勤时段。
一些媒体试图反击。2018年,《卫报》公开实验:一周不用任何Google和Facebook产品。记者发现,没有这些平台,他们几乎找不到信源、发不出稿子、触达不了读者。实验结论是:新闻业的基础设施已经被平台"锁定"。
算法编辑的"盲区"与"偏好"
没读过书的算法,有自己的阅读品味。
它偏爱即时性胜过持久性。突发新闻的推送权重远高于深度调查,因为前者触发"刷新"行为,后者只需要"读完"。2016年美国大选期间,虚假信息的传播速度是真实新闻的6倍——不是假新闻更聪明,是它们更擅长制造情绪反应,而情绪反应是算法的燃料。
它偏爱可量化胜过不可量化。"引发思考"无法被点击,"引发愤怒"可以。平台后来增加了"有意义社交互动"等修正指标,但底层逻辑没变:能被测量的行为才有权重,而最有价值的新闻体验往往无法被测量。
它偏爱个人化胜过公共性。Feed为每个人定制信息流,结果是"我们"的公共议程被拆解成无数个"我"的私人偏好。2019年皮尤研究中心的数据显示,同一新闻事件在不同用户的信息流中呈现的版本差异巨大——不是观点差异,是事实选择差异。
算法没有故意制造信息茧房,它只是优化了"用户满意度",而满意度和认知多样性天然矛盾。
新闻机构的"平台依赖症"怎么治
有些媒体开始重建自己的"建筑"。
《纽约时报》2020年推出Cooking和Games等垂直产品,把用户拉回自有App。订阅收入占比从2014年的26%涨到2023年的67%。这个转型花了9年,裁了数百人,但总算拿回了编辑主导权。
Substack和Ghost让个体记者直接对接读者,绕过平台算法。2021年,前《纽约时报》科技记者Casey Newton在Substack上推出Platformer,年收入超过原岗位薪资。模式很原始:读者为特定的人付费,而不是为算法推荐的内容付费。
更激进的实验来自非营利机构。2022年,荷兰的The Correspondent宣布关闭英文版,理由是"无法在平台生态中维持会员驱动的模式"。他们试过,失败了,但失败本身成了案例——证明平台依赖的代价有多高。
一个没被回答的问题
2024年,OpenAI和新闻机构签下内容授权协议。《金融时报》《时代》杂志、Axel Springer集团陆续加入。协议金额未公开,但据《华尔街日报》报道,部分年度合同在500万至1000万美元区间。
这像是新闻业的新出路:让AI公司成为金主。但隐患同样明显:当训练数据本身依赖平台分发,而平台算法又重塑了内容形态,AI学到的"新闻"已经是被Feed过滤过的版本。
算法编辑的影响不会消失。它塑造了整整一代人的信息消费习惯,从"主动寻找"变成"被动接收",从"信任机构"变成"信任互动量"。
现在的问题是:如果下一代AI助手直接生成答案,连"刷Feed"这个动作都省略了,新闻业还能在哪里找到自己的位置?
热门跟贴