打开网易新闻 查看精彩图片

2024年10月,美国加州北区法院收到一份厚达847页的诉讼文件。原告不是竞争对手,也不是监管机构,而是一群普通用户。他们指控Meta(原Facebook)的推荐算法故意放大极端内容,导致青少年心理健康恶化。这场诉讼最狠的地方在于:原告拿到了Meta内部实验数据,证明工程师早在2019年就发现了算法对青少年的负面影响,但产品迭代优先级里,用户福祉排在广告收入之后。

这不是隐私泄露案,是产品设计伦理的刑事现场。

案件编号3:23-cv-05480,被称为"社交媒体第一案"。原告代理律师团队来自Keller Rohrback,这家律所曾主导过剑桥分析丑闻的集体诉讼。他们这次的核心策略是:把推荐算法本身当作被告,而非平台或高管。法律逻辑很刁钻——如果算法是产品,那产品设计缺陷导致的伤害,适用严格产品责任原则。

Meta的防御策略同样刁钻。他们辩称算法是"言论中介",受《通信规范法》第230条保护。但原告甩出一份2018年的内部邮件,发件人是Instagram前负责人亚当·莫塞里(Adam Mosseri),收件人是扎克伯格。邮件主题栏写着"青少年福祉指标下滑",正文里有一句话被原告用荧光笔标出:"我们测试了降低推荐频率的方案,但日活掉了12%,所以没推全量。"

「我们不是在讨论技术中立,」原告首席律师娜塔莉·斯科特(Natalie Scott)在预审听证会上说,「我们在讨论一个被设计为优先最大化停留时长的系统,而设计师完全清楚这对16岁大脑意味着什么。」

算法如何成为"被告"

算法如何成为"被告"

传统上,平台责任诉讼聚焦内容审核——某条帖子该不该删。但本案原告换了个角度:他们起诉的是"系统性的设计选择"。具体指控包括三项:第一,无限滚动(Infinite Scroll)机制利用间歇性变量奖励机制,类似老虎机心理学;第二,"点赞"和"分享"数的外显显示,制造社会比较压力;第三,推荐算法对高唤醒情绪内容(愤怒、恐惧、嫉妒)的流量倾斜。

原告聘请的专家证人是斯坦福大学心理学家布莱恩·普里马克(Brian Primack),他做过一项被引用超过4000次的研究:青少年每天使用社交媒体超过3小时,抑郁风险翻倍。但Meta的反驳证据同样扎实——他们出示了2021年内部实验,证明完全移除算法推荐后,青少年用户平均会话时长暴跌67%,但自我报告的"幸福感"仅提升0.3个标准差。

「用户嘴上说要健康,身体很诚实。」Meta产品副总裁汤姆·艾莉森(Tom Alison)在内部备忘录里写道。这句话被原告当作"明知故犯"的证据提交。

案件的关键技术细节在于:Meta的推荐系统采用多目标优化,核心指标是"有意义的社交互动"(MSI,Meaningful Social Interaction),但MSI的权重系数由商业团队设定。2019年的一份技术规格文档显示,"广告收入预测"是MSI模型的输入特征之一。换句话说,算法推荐的不是用户最想看的内容,而是最能同时满足停留时长和广告曝光的内容。

3.6亿用户的"数字尸检"

3.6亿用户的"数字尸检"

原告获得法院许可,调取了2017-2023年间Meta内部关于青少年用户的实验数据。总量超过3.6亿用户记录,但经过去标识化处理。数据科学家从中重建了一条时间线:

2017年,Instagram推出"活动状态"功能,显示好友在线时间。内部A/B测试显示,该功能使14-16岁用户的消息发送量增加23%,但夜间使用时长(晚10点至凌晨2点)增加41%。产品经理在评审会上提出是否添加"睡眠模式",被否决,理由是"影响核心指标"。

2019年,Instagram测试隐藏点赞数。初期数据显示,内容发布量下降11%,被紧急叫停。2021年,该功能在部分市场重新上线,但默认关闭,需要用户手动开启。内部文档记录了一个细节:隐藏点赞数的版本中,广告点击率下降7%,因为"用户注意力从社交比较转向内容消费的时间减少了"。

2022年,TikTok的短视频格式冲击Meta生态。Instagram紧急推出Reels,复制无限滑动机制。一份被标记为"机密"的产品评审纪要显示,Reels的推荐算法被刻意调高了"意外性"权重——也就是让用户刷到"完全没想到但停不下来"的内容。会议纪要里有一句话:"意外性每提升10%,会话时长增加15%,但用户报告的内容相关性满意度下降8%。"

原告律师在庭前陈述中把这些数据串成叙事:Meta的工程师不是不懂伤害,而是把伤害当作可接受的副作用。就像汽车厂商知道安全气囊可能致盲,但认为救命的收益大于风险——问题是,Meta从未向用户披露这些"副作用"。

产品设计的"刑事责任"边界

产品设计的"刑事责任"边界

本案的判决将直接影响整个行业的合规框架。目前美国国会正在审议的《儿童在线安全法》(KOSA)要求平台对"可合理预见"的伤害负责,但"可合理预见"的定义模糊。如果本案原告胜诉,法院将确立一个先例:内部实验数据可以证明"可合理预见性",即使伤害是统计性的、非即时的。

Meta的辩护团队援引了烟草诉讼的先例。1998年大和解案中,烟草公司被追究责任的前提是:他们明知尼古丁致癌,却故意隐瞒。Meta的论点是,他们从未隐瞒算法机制,所有功能都写在帮助文档里;至于心理影响,那是学术研究的领域,不是企业的法定义务。

原告的回应是:烟草公司也可以说"吸烟有害健康写在烟盒上"。关键在于,Meta的设计选择不是中性的"提供工具",而是主动的"塑造行为"——无限滚动没有"关闭"选项,算法推荐没有"纯时间序"模式(2022年后Instagram彻底取消了按时间排序的选项)。

技术伦理学家、MIT媒体实验室研究员凯文·斯拉文(Kevin Slavin)作为原告专家证人出庭。他在证词中打了一个比方:"这不是卖刀给凶手的问题,这是设计了一把会主动寻找颈动脉的刀。"

Meta的交叉质询试图瓦解这个类比:如果算法是"主动的",那天气预报App也是主动的,因为它主动推送暴雨预警。斯拉文的回应被记入庭审记录:「天气预报的目的是保护用户,而Meta算法的目的是捕获注意力。目的不同,责任边界就不同。」

案件目前处于证据开示阶段,预计2025年夏季开庭。同期,英国信息专员办公室(ICO)正在依据《在线安全法》对Meta进行平行调查,欧盟数字服务法(DSA)的合规审查也在推进。Meta 2024年Q3财报首次将"算法诉讼风险"列为独立条目,预估潜在赔偿金额"可能重大",但未给出具体数字。

原告代理律师斯科特在最近一次听证会后拒绝媒体采访,只留了一句话:「我们想知道,当3.6亿青少年的大脑发育数据摊在法庭上,陪审团会怎么投票。」

Meta发言人则发布声明,强调"我们致力于与专家合作,理解并减轻潜在伤害",同时宣布将在2025年Q1上线"青少年账户"强制限制功能,包括夜间使用锁、家长监控面板、以及——据内部泄露的PRFAQ文档——"可选的算法透明度报告"。

这份报告会披露什么?用户目前只能看到"为什么看到这条推荐"的简化解释,比如"因为你关注了XX"。真正的权重系数、目标函数、A/B测试历史,仍锁在Menlo Park的服务器里。诉讼的核心诉求之一,就是强制公开这些"配方"。

如果法院支持,这将是产品设计史上第一次:用户有权知道,那个让你凌晨两点还在刷手机的机制,究竟是怎么算出来的。

而那个机制的设计者,是否该为算出的结果负责?