谷歌的AI伦理团队曾经是个招牌。2014年收购DeepMind后,他们专门组建了这个部门,负责审查算法偏见、数据隐私这些敏感问题。8年时间,团队从几个人扩张到数十人,发表过上百篇论文,还帮谷歌躲过几次监管罚款。

转折点在去年秋天。谷歌CEO皮查伊在内部会议上说:「我们需要重新评估所有非核心项目的投入产出比。」三个月后,伦理团队被整体并入中央工程部门,负责人Margaret Mitchell被迫离职。她后来在X上发了一条帖子:「当你把『不作恶』写进公司宪章,又悄悄把成本核算表放在它上面——这就是结果。」

裁员名单里有个细节:被裁的12人中,有7人正在审核Gemini的图像生成模块。这个模块今年2月因为生成历史人物「多元化」版本而翻车,谷歌紧急下架整改。当时没人提到,审核团队的人手已经少了近一半。

皮查伊今年1月的财报电话会上承认,公司在AI安全审查上「可以做得更好」。但他没有回应为什么偏偏在Gemini发布前夜,裁掉了最熟悉这套系统的人。现在伦理团队剩下的人被分散到各个产品组,直接向产品经理汇报——而产品经理的KPI是用户增长,不是算法公平。

一位前员工在匿名论坛写道,他们去年提交的关于Gemini种族偏见的内部报告,被标注为「优先级P3」,也就是「有空再看」。报告日期是2023年11月,比公开翻车早了三个月。