去年10月,Sam Altman 发了篇博客叫《温和的奇点》(A Gentle Singularity)。阅读量近60万,评论区一片"未来已来"的欢呼。但 OpenAI 内部有人没鼓掌——三个月后,一份仅3页纸的离职协议流出,把这篇博客的每一个乐观假设都变成了黑色幽默。

Altman 的剧本是这样的:先造100万台人形机器人,让它们去挖矿、开车、建工厂,然后机器人造更多机器人,芯片厂和数据中心像蘑菇一样长出来。技术进步自我加速,人类适应一切,旧工作消失但新世界富得流油,"我们能认真考虑以前想都不敢想的政策"。

没有下行风险。没有。因为"人们几乎能适应任何东西,而且适应得很快"。

这种论述熟悉吗?2010年代的硅谷把它用在了共享经济、加密货币、元宇宙身上。每一次都是"这次不一样",每一次都是"先颠覆,再立法"。Altman 只是把剂量加大了——不是颠覆出租车或货币,是颠覆"工作"这个概念本身。

离职协议里的"非贬低条款":乐观主义的封口费

2024年5月,Vox 曝出 OpenAI 前员工的离职协议细节。核心条款:签署后7年内不得说公司坏话,否则已归属的股权作废。不是未归属的——是已经到手、已经交税的那部分。

一位前员工算过账:放弃协议,可能损失数百万美元。接受协议,等于用下半辈子的沉默换一张财务自由门票。

更妙的是流程设计。协议不是HR当面递给你,是通过邮件发送,附带一个已预填姓名的DocuSign链接。点一下,几十万美元锁进保险箱;不点,进入"自愿放弃股权"的灰色地带。没有协商窗口,没有律师陪同的缓冲期。

Altman 的回应堪称行为艺术。他在X上发帖:"这事我不知情,我们正在修复。"但 Vox 拿到的邮件记录显示,至少有三名高管——包括Altman本人——在2023年11月的邮件链里讨论过协议措辞。其中一封的收件人列表里,Altman的名字就在第二行。

「"不知情"在这里是个有趣的词。它可能指"我没逐字审阅最终版",也可能指"我没意识到这会变成新闻"。在硅谷的语义学里,两者都成立。」——一位要求匿名的前OpenAI研究员

协议最终被修改,非贬低条款变成可选。但 damage 已经造成:当Altman在博客里写"我们能认真考虑以前想都不敢想的政策"时,他自己的公司正在用合同条款让员工"想都不敢想"公开批评。

从"温和奇点"到"强硬现实":时间线里的裂缝

把两个事件叠在一起看,会出现一条诡异的裂缝。

2023年11月:Altman被董事会短暂罢免,理由是"沟通不坦诚"。五天后回归,开始推动更快的商业化。同月,离职协议的非贬低条款被加入最终版本。

2024年3月:OpenAI 发布 GPT-4 技术报告,安全测试细节被大量涂黑。外部研究者抱怨无法复现安全声明。

2024年5月:离职协议曝光,Altman 声称不知情。同月,超级对齐团队(Superalignment Team)负责人 Jan Leike 和 Ilya Sutskever 相继离职。Leike 在离职帖里写:「安全文化和流程正在被闪亮的产品取代。」

2024年6月:OpenAI 宣布与苹果合作,Siri 将接入 GPT。股价反应:苹果涨,但安全研究者社区一片死寂——没人知道这版模型经过了什么测试。

Altman 的"自我加速循环"确实在运转,只是方向和他描述的不太一样。不是机器人造机器人,是产品压力压过安全审查,是离职协议取代内部辩论,是"适应"被重新定义为主动闭嘴。

「我们原来说的'适应',是指人类学习使用新工具。现在OpenAI说的'适应',是指人类学会不对工具提问。」——前超级对齐团队成员

"没有真正的下行风险":一个需要被相信的命题

"没有真正的下行风险":一个需要被相信的命题

Altman 博客里最值得拆解的句子,不是关于机器人的部分,是关于心理预期的:

"人们几乎能适应任何东西,而且适应得很快。"

这句话在心理学上成立。人类确实有惊人的恢复力,能从战争、灾难、剧变中重建常态。但 Altman 把它用成了一个论证工具:因为能适应,所以剧变不需要提前缓冲;因为能恢复,所以创伤不需要预防。

这种逻辑的问题在于,它把"适应"当成了免费选项。但适应是有成本的——时间、健康、社会关系、机会窗口。19世纪工厂工人"适应"了工业革命,代价是童工、肺痨和四十年每周80小时的工作。他们的后代享受了福利国家,但福利国家不是自动出现的,是工会、流血、政治运动换来的。

Altman 的叙事悄悄删除了中间步骤。技术进步→自动变富→自动有新政策→自动变好。但历史显示,技术进步→利益集中→社会撕裂→政治回应(可能变好,可能变坏)。跳过中间环节,等于假设自动扶梯永远向上。

更隐蔽的是主语问题。"我们"会想出新事物去做,"我们"会建造更美好的东西。但这个"我们"是谁?被离职协议封口的前员工,算在"我们"里吗?被GPT-4替代掉的文案写手,算在"我们"里吗?苹果发布会上的演示很酷,但酷的是"我们"的生活,还是苹果和OpenAI的股价?

「Altman 的修辞技巧是把所有利益相关方压缩成一个'我们'。当你质疑时,你就是反对人类进步。这是一种非常高效的讨论终结术。」——科技史学者 Margaret O'Mara

机器人不会问问题,但人会

机器人不会问问题,但人会

回到那个自我加速的循环:机器人挖矿、开车、建工厂,造更多机器人。Altman 假设这个循环的瓶颈是物理产能,是"第一百万台"的启动成本。

但真正的瓶颈可能是社会许可。不是技术能不能造,是人们愿不愿让造。不是工厂能不能建,是社区愿不愿让建。不是机器人能不能替代司机,是司机们有没有投票权、有没有工会、有没有能力让替代过程慢一点、人道一点。

这些都不是技术问题,是政治问题。而政治问题的解法,从来不是靠"人们适应得快"就能跳过的。

OpenAI 的离职协议事件提供了一个微观样本:当内部异议出现时,公司的第一反应不是公开辩论,是合同封口。这不是批评,是事实陈述——协议确实存在,确实被修改,Altman确实先声称不知情、后承认参与讨论。

如果一家公司的内部治理都经不起外部审视,它设计的"社会契约"值得多大信任?

Altman 在博客结尾写:"几十年后回头看,渐进的变化会累积成某种重大的东西。"这句话本身没错。但渐进的变化可以走向很多方向——更公平的分配,或更集中的权力;更开放的创新,或更封闭的垄断。方向不是技术决定的,是人选择的。

问题是,当选择本身被离职协议的沉默成本扭曲时,"我们"还能选择什么?

6月底,一位刚离开OpenAI的研究员在私人聚会上被问到:如果Altman的"温和奇点"真的到来,你最担心什么?他说了两个字,然后喝了口酒,没再解释。那两个字是:"已经来了。"