全球每天有超过50亿条搜索请求、数万亿次内容推荐,背后都站着一个被刻意隐藏的假设——机器没有立场。这个假设正在批量制造我们看不见的伤害。

「技术中立」是最成功的营销话术

我们从小被灌输一个画面:代码像数学公式一样纯净,数据像矿石一样客观。搜索引擎只是图书馆,社交推荐只是水管,信用评分只是计算器。出问题了?那肯定是数据脏了,跟设计它的人没关系。

这套叙事的美妙之处在于责任蒸发。Facebook可以把 polarization(极化内容)归咎于用户行为,Uber能把司机困境甩给市场供需,招聘平台可以说算法只是"反映现实"——仿佛这些系统是从石头缝里蹦出来的。

每行代码都是一次价值拍卖

举个具体的例子。2018年亚马逊被迫放弃一个内部招聘工具,因为它持续给女性工程师简历打低分。技术团队最初的辩解很典型:算法只是学习了历史数据,历史数据里男性工程师更多,所以结果"客观"反映了现实。

但设计这个系统时,有人决定了用"过去10年 hires"作为训练集,而不是"过去10年 applicants"。有人决定了把"包含女子学院"作为降权信号,而不是"包含体育特长"。有人决定了优化目标是"降低离职率"而非"提升团队多样性"。

这些不是技术决策,是价值观拍卖——而且拍卖会上只有工程师的声音。

数据不是矿石,是化石

原始内容里有个精准的判断:Every data set is a historical artifact(每个数据集都是历史文物)。翻译一下:数据里封存着过去谁被看见、谁被忽视的权力结构。

美国医疗算法曾系统性地低估黑人患者的健康风险,因为系统用"历史医疗支出"替代"实际病情"作为指标。历史支出低?那说明病情不重。但历史支出低的真实原因是黑人社区医疗资源匮乏。算法把结构性歧视编码进了未来。

更隐蔽的是推荐系统的"中立性"。YouTube的推荐引擎被设计为最大化观看时长,这个指标看起来人畜无害。但MIT媒体实验室的研究发现,极端内容天然更能留住注意力——于是系统学会了把用户往 rabbit hole(信息茧房)里推,而且推得越来越快。

没人写代码说"推荐阴谋论"。但有人写了代码说"优化 engagement(用户参与度)",然后假装不知道 engagement 和 outrage(愤怒情绪)的换算公式。

谁在写未来的操作系统?

全球市值前十的公司里,七家的核心资产是算法基础设施。它们正在以"中立平台"的身份,悄悄把特定的时间观、注意力分配方式、甚至人际关系模型,浇筑进几十亿人的日常。

这不是阴谋论,是架构问题。当你打开外卖软件,是"最近30分钟送达"优先,还是"骑手权益保障"优先?当短视频排序,是"完播率"权重高,还是"信息价值"权重高?每个默认选项都是一次立法,只是立法者从不露面。

原文抛出的问题值得贴在每个产品经理的工位上:whose values are being codified into the infrastructure of our future?

翻译过来就是:我们正在用谁的价值观,给下一代人编写操作系统的底层代码?

这个问题没有标准答案,但沉默本身就是答案的一种。