想象你正在面试一位CEO候选人。简历耀眼:35岁前把非营利实验室变成万亿级公司,产品月活破亿。但背调显示,前董事会因"习惯性欺骗"解雇过他,多位合伙人称他"不受真相约束"。你会录用吗?

这正是OpenAI董事会2023年11月面临的抉择——而他们最终选择了让他回来。

打开网易新闻 查看精彩图片

正方:他是这个时代最稀缺的造局者

纽约客》这篇17000字特稿花了18个月,采访对象包括Altman本人、前董事会成员、早期YC合伙人、被踢出局的联合创始人。一个共识很清晰:这人能成事。

把OpenAI从研究实验室变成商业机器,Altman只用了几年。ChatGPT月活破亿的速度,比TikTok快三倍。他从中东主权基金撬动的数百亿美元承诺,让竞争对手至今难以复制。

更关键的是时机判断。2019年他力排众议推动商业化,2022年坚持发布ChatGPT而非继续打磨——这两个决策的时间窗口,错过任何一个,OpenAI都可能沦为DeepMind的注脚。

一位早期投资人告诉Ronan Farrow:"他撒谎的方式很特别。不是编故事,而是同时相信两件矛盾的事。"这种认知弹性,在需要快速迭代、快速说服的AI竞赛里,反而成了武器。

反方:系统性欺骗正在腐蚀组织根基

但2023年11月的解雇事件,暴露的不仅是"沟通问题"。

董事会当时的指控很具体:Altman在多项事务上"不够坦诚",包括他个人持有的OpenAI创业基金、与中东投资者的私下接触、以及他对安全研究的实际投入程度。多位董事直到媒体报道才知道这些安排。

更麻烦的是模式。特稿记录了YC时期的老问题:2014年他接替Paul Graham执掌加速器,多位合伙人反映他"选择性告知"关键信息。一位直接合作者说:"你问他A,他回答B,而B恰好是他想让你做的事。"

这种模式在OpenAI被放大。安全团队离职潮、超级对齐团队解散、Ilya Sutskever的出走——这些事件背后都有相似的叙事:承诺与兑现之间的裂缝。

Farrow的采访里有个细节:Altman承认自己"有时会把想说的事当成已经发生的事来说"。这不是修辞问题,是认知层面的现实扭曲。

我的判断:我们测试的不是一个人,而是一种治理假设

特稿最有价值的部分,是Altman本人的回应。他没有否认具体指控,而是提供了一套框架:创业需要"激进的乐观",而乐观有时会被误解为夸大。

这个框架的问题在于,它把组织风险个人化了。当OpenAI的治理结构被设计成"董事会可以解雇CEO"时,它假设的是常规商业逻辑;但当Altman能在五天内动员投资者、员工和微软反向施压董事会时,这套结构被证明是纸糊的。

现在的OpenAI,本质上是在测试一个命题:一个"不受真相约束"的领导者,能否通过持续交付产品成功,来抵消治理层面的系统性风险?

短期数据支持这个赌注。ChatGPT Plus订阅数、企业客户增长、GPT-4o的多模态能力——这些硬指标让批评者显得迂腐。但特稿提醒我们注意另一个数据点:OpenAI的原始使命是"确保通用人工智能造福全人类",而Altman个人持有的外部投资版图(包括核聚变、生物科技公司),正在让"全人类"的定义变得模糊。

这不是道德指控,是结构观察。当一个人的个人利益网络与公共利益使命深度交织,且这个人有"同时相信两件矛盾的事"的认知特征时,监督机制的设计就必须比常规更冗余——而不是更依赖个人品行。

2023年11月的董事会试图建立这种冗余,失败了。现在的OpenAI董事会,据特稿披露,成员与Altman的关系比先前更紧密。这是选择,也是代价。

17000字的特稿会被引用多年,不是因为揭露了某个惊天丑闻,而是因为它精确记录了一个转折点:当AI的能力开始接近通用智能的门槛时,我们用来约束它的组织机制,反而在依赖一个最不适合被约束的人。

数据收束:OpenAI最新估值860亿美元,Altman个人净资产据估计超过10亿美元,而Farrow为这篇报道采访的47人中,有12人要求匿名——不是因为害怕报复,是因为"不确定自己理解的版本是否完整"。