你花299美元买的雷朋智能眼镜,拍下的画面正被远在肯尼亚的合同工逐帧审阅。有人裸身、有人如厕、有人在卧室——而Meta的回应是:把爆料的这家公司整个裁掉。
事件核心:肯尼亚工人的爆料
今年2月,Meta在肯尼亚的外包合同工向瑞典《每日新闻报》和《哥德堡邮报》披露,他们被强制审核由雷朋智能眼镜(Ray-Ban AI Glasses)采集的敏感影像。
审核内容触目惊心:佩戴者裸体画面、如厕场景、卧室内的私密时刻。一名工人描述看到"一位男子的妻子在卧室脱衣",原因是丈夫把眼镜遗留在桌上。还有完整的"性爱场景"。
「你明白这是别人的私生活,但同时你只被期望完成工作。」一名员工告诉瑞典媒体,「你不应该质疑。如果你开始提问,你就完了。」
这种直觉是对的。
Meta的回应:终止合作而非解决问题
爆料见报两个月后,Meta做出了一个耐人寻味的决定。据英国广播公司报道,Meta终止了与肯尼亚外包公司Sama的全部合作。
肯尼亚一家劳工组织指控,这是针对工人发声的报复行为。
Meta未直接回应报复指控,但向BBC声明:「我们决定终止与Sama的合作,因为他们未能达到我们的标准。」同时强调「认真对待」工人的指控。
「照片和视频对用户是私密的,」一名发言人补充,「人工审核人工智能内容以提升产品性能,对此我们已获得明确的用户同意。」
Sama则坚决维护自身立场。「Sama在所有客户合作中始终满足运营、安全和质量标准,包括与Meta的合作,」其声明称,「我们从未接到任何未能达到这些标准的通知,我们坚定支持工作的质量和诚信。」
清单:这件事暴露的五个结构性问题
第一,"用户同意"的模糊地带
Meta强调已获得"明确的用户同意",但同意条款的具体内容从未公开。用户购买眼镜时,是否知晓自己的私密画面会被人工逐帧审核?审核范围是否包括非佩戴者的第三方?
原文未披露这些细节,但工人的描述显示,审核内容远超一般意义上的"产品优化所需"。
第二,外包链条的道德稀释
Sama工人的时薪、工作时长、心理支持措施,原文均未提及。但一个清晰的事实是:审核最私密影像的劳动,被层层外包至劳动力成本最低的地区。
这种结构让硅谷公司既能获取训练人工智能所需的人工标注数据,又无需直接面对审核者的心理创伤。
第三,举报后的惩罚机制
工人向媒体爆料后,其雇主失去了与Meta的合同。无论Meta如何定义"标准未达标",时间点的巧合——爆料后两个月——让"报复"指控难以轻易驳回。
更深层的问题是:当审核敏感内容的工人发现流程失当,他们向谁申诉?向雇主Sama,还是向Meta?原文显示,提问本身就被视为禁忌。
第四,硬件设计的隐私漏洞
雷朋眼镜的录制指示灯可被禁用或遮盖,这一点已被广泛发现。Sama工人报告称,部分用户似乎并未意识到眼镜正在录制。
这意味着"用户同意"的链条存在断裂:佩戴者可能不知情,被拍摄者更不知情,而审核者在千里之外被迫观看。
第五,人工智能训练的隐性人力成本
数据标注(Data Annotation)是人工智能行业的隐形基础设施。模型需要知道"这是什么",而告诉它的,是大量人工标注的图像和视频。
对于雷朋眼镜,这种标注旨在让内置人工智能"更无缝地运行"。但"无缝"的用户体验背后,是肯尼亚工人观看陌生人裸体画面的劳动。
产品视角:为什么这件事值得科技从业者关注
这不是一起孤立的隐私泄露事件。它揭示了人工智能硬件产品的一个核心张力:为了"智能",需要数据;为了数据,需要审核;为了成本,需要外包;为了速度,需要牺牲知情同意。
Meta的选择——终止合作而非重构流程——暗示了行业的一种默认逻辑:当伦理审查与商业利益冲突时,切断曝光源比修复系统更省事。
对于25-40岁的科技从业者,这件事提出了一个直接的问题:你设计的产品功能,其数据闭环的末端在哪里?谁在看?在什么条件下?他们有没有说"不"的权利?
雷朋眼镜的案例显示,答案可能比你想象的更遥远、更黑暗。
数据收束
2023年,Meta与EssilorLuxottica合作的第二代雷朋智能眼镜销量突破100万副,是前代销量的三倍。每副眼镜配备1200万像素摄像头、五麦克风阵列,以及由Meta人工智能驱动的实时翻译、物体识别功能。
100万副眼镜,意味着100万个移动采集终端。肯尼亚工人的爆料让我们得以一窥这些终端产生的数据洪流,流向何方、经谁之手——以及当有人试图谈论它时,会发生什么。
热门跟贴