2004年上市招股书里的这句话,20年后被创始人自己翻出来当反面教材。

一句口号的诞生与异化

打开网易新闻 查看精彩图片

「最大的危险信号?当然是这个——不作恶。」谷歌联合创始人谢尔盖·布林(Sergey Brin)在2024年一场内部技术会议上,用这句话开场。

台下工程师起初以为是玩笑。直到他解释:当年把"Don't be evil"写进S-1文件时,他们天真地以为道德可以像代码一样被定义、被执行。

现实是,当公司规模突破10万员工、年营收超过3000亿美元,"不作恶"从操作指南变成了免责盾牌。布林的原话是:「我们以为列出来就够了,没想过怎么衡量。」

从标语到真空地带

2015年谷歌重组为Alphabet,"不作恶"被"做正确的事"(Do the right thing)取代。表面是升级,实则是稀释——后者更模糊,更难追责。

布林复盘了三个具体教训:

第一,"恶"的定义权被让渡给中层管理者。搜索团队认为的"优化用户体验",在广告团队看来可能是"提升点击率",两者冲突时无人裁决。

第二,负面案例从未被系统复盘。2018年Maven项目争议(五角大楼AI合作)、2020年蒂姆尼特·格布鲁(Timnit Gebru)离职事件,内部报告被封存而非公开讨论。

第三,道德委员会沦为公关工具。2023年裁撤负责任创新团队(Responsible Innovation)时,官方说法是"整合进产品线",实际编制缩减了40%。

技术乐观主义的代价

布林的反思有个关键背景:OpenAI和Anthropic正在用"宪法AI"(Constitutional AI)等机制尝试量化对齐(Alignment)问题。谷歌作为深度学习的发源地,却在组织层面输给了更小的对手。

他承认,谷歌早期把技术中立性当作美德——「我们建造高速公路,不负责上面跑什么车」。但生成式AI(Generative AI)的涌现能力打破了这一假设:模型本身开始创造内容,中立性神话破产。

一个细节:布林演讲时身后屏幕显示着2004年招股书原稿,"Don't be evil"被红框标注,旁边手写批注——「我们当时真的相信这个」。

大厂伦理困境的缩影

这场内部讲话流出后,Meta、微软的AI伦理团队相继被追问。答案惊人地相似:道德口号越响亮,执行层越找不到抓手。

谷歌的教训在于,把伦理当成品牌资产而非运营基础设施。当布林说出"最大的危险信号"时,他真正指的是——组织失去了对"恶"的感知能力。

不是故意作恶,而是系统性地看不见恶。

如果"不作恶"都需要被重新定义,下一代AI公司的道德框架该由谁来写?