或许你还记得,在并不遥远的2023年11月,Sam Altman被自己的董事会投票解雇,又在5天内奇迹复活。当时全世界都把这当成一出硅谷宫斗剧来看,一个天才创业者被不懂事的学术派board赶走,又被市场的力量迎回来。多么励志。

直到昨天纽约客放出了那份迟到的尸检报告,我们才知道,原来那不是宫斗,是止损。董事会不是不懂事,是知道得太多了。

纽约客花了18个月,采了100多个信源,翻了200多页内部文件。标题很直球:「Sam Altman May Control Our Future — Can He Be Trusted?」 同一天,Altman自己发了份13页政策报告,把自己比作罗斯福,说要搞AI时代的New Deal。

一边是检察官在宣读起诉书,一边是被告在发表竞选演讲。

打开网易新闻 查看精彩图片

52页备忘录

这篇调查真正的杀伤力来自两份从未公开过的内部文件。

第一份是Ilya Sutskever在2023年秋天编的52页备忘录。Ilya当时还是OpenAI首席科学家,他不是在写投诉信——他是在编案卷。截图、通信记录、事实核对,一条一条地列。备忘录第一行:

「Exhibits a consistent pattern of lying.」

表现出系统性的撒谎模式。

第二份是Dario Amodei在OpenAI期间记的200多页笔记。Dario后来离开创办了Anthropic,我们一会儿再说这件事为什么重要。他的笔记浓缩成一句话:

「The problem with OpenAI is Sam himself.」

一个董事会成员的措辞更精确:「He's unconstrained by truth.」他不受真相约束。

Unconstrained by truth。不是「偶尔撒谎」,不是「有时不够坦诚」——是真相对他构不成约束力。就像万有引力之于光子,不是它在抵抗,是这个力对它不适用。

承诺1/5,兑现1%

纽约客列了一长串指控,但核心逻辑其实只有一条:Altman把安全承诺当成融资PPT用。

最典型的案例:OpenAI高调宣布成立「超级对齐团队」,承诺投入1/5的计算资源,防止AI导致「人类灭亡」。听起来很负责很壮观,投资人安心了,媒体写了,舆论买账了。

但四个内部人士告诉纽约客,这个团队实际拿到的算力是1-2%,跑在公司最老旧的GPU上。好卡留给了能赚钱的模型。

然后这个团队被解散了。

记者去问OpenAI:你们现在还有「存在主义安全研究人员」吗?

对方的回应我来来回回读了三遍:

「That's not, like, a thing.」

这句话的信息密度极高。翻译成中文就是:「那个...不算是...一个存在的事物。」

你想想这个逻辑链:先承诺1/5 → 实际给1% → 解散整个团队 → 被问的时候表示这个概念不存在。这不是食言,这是一种本体论层面的否认——不是我没做到,是这件事从来就不是一件事。薛定谔的安全承诺:你不去查的时候,它既存在又不存在。

2022年12月的事更离谱。Altman跟自己的董事会说GPT-4的争议功能都已通过安全委员会审批。董事会要求看文件。没有文件。因为那些功能压根没被审批过。

骗投资人还能理解为硅谷传统。但骗自己的董事会,这就像棋手试图作弊骗裁判——而裁判就坐在你对面看着你下棋。需要的不是勇气,是某种对现实的创造性理解。

Paul Graham的沉默

说一个我觉得被大多数人忽略的细节。

Paul Graham是YC的创始人,是当年亲手提拔Altman做YC总裁的人。纽约客引用了PG的原话:

「Sam had been lying to us all the time.」

Sam一直在骗我们。

但你猜怎么着?2024年5月,PG在X上专门发了一条帖子,语气还挺认真的:「我听够了说YC开除Sam的说法,来告诉你们真正发生了什么。」大意是我们没开除他,只是让他选YC还是OpenAI,他选了OpenAI。

私下跟同事说「他一直在骗我们」,公开替他洗地说「我们没开除他」。
打开网易新闻 查看精彩图片
私下跟同事说「他一直在骗我们」,公开替他洗地说「我们没开除他」。

我毫不怀疑PG知道自己在做什么。你亲手提拔的人后来证明是个说谎者,你有两个选项:承认自己的识人能力有问题,或者把整件事模糊化处理。PG选了后者。

纽约客出来之后,PG没有再发帖。

沉默。

这个沉默里面的信息量,比一万字的声明都大。因为如果纽约客的引语有误,PG一定会澄清——他可是最在乎公共叙事准确性的人。他没澄清,说明那些话确实是他说的。

甚至连微软高管都私下来了一句:

「I think there's a small but real chance he's eventually remembered as a Bernie Madoff- or Sam Bankman-Fried-level scammer.」

可能被记住为麦道夫或SBF级别的骗子。这话是合作伙伴说的。你的合作伙伴拿你跟庞氏骗局比,你品品这个信任度。

vibes

面对以上所有这些,Altman跟纽约客的回应值得裱起来。

「My vibes don't really fit with a lot of this traditional A.I.-safety stuff.」

我的vibes和传统AI安全不太搭。

Vibes。

这个词如果被收进商业史教科书,大概会出现在「企业高管面对严肃质疑时的最短有效回答」这个条目下。一个掌管着可能是人类历史上最强大技术工具的人,选择了一个连词性都模糊的词来回应为什么不重视安全。

这就好比核电站厂长在安全听证会上说「我跟铀235之间的chemistry不太对」。

他还说OpenAI会继续做「safety projects, or at least safety-adjacent projects」。你品品这个措辞降级——从safety到safety-adjacent。就像有人说「我爱你,或者至少,我对你有好感相关的情绪」。

同一天发的那份New Deal报告呢?卡内基基金会的人给了一句点评:「comms work to provide cover for regulatory nihilism.」——公关作品,给监管虚无主义打掩护。

到今天,Altman还没正式回应纽约客的具体指控。

也许他正在准备一份新的政策报告,标题大概叫「Why Being Unconstrained by Truth Is Actually Good for Humanity」。

出走的人赢了

现在说说为什么Dario Amodei的那句「The problem with OpenAI is Sam himself」格外值得回味。

因为写下这句话的人离开了OpenAI,创办了Anthropic,然后在收入上反超了OpenAI。

Anthropic年化收入300亿美元。OpenAI是250亿。

打开网易新闻 查看精彩图片

Epoch AI做过一张图,两条曲线的走势一目了然:Anthropic从10亿起年增长10倍,OpenAI只有3.4倍。在首次采购AI工具的企业里,73%选了Anthropic。

被安全问题逼走的人,做了一家更安全的公司,然后收入反超了逼走他的那家公司。

如果这是一部电影的剧本,制片人会说「太假了,现实中不会有这么工整的因果报应」。但现实的品味一向比好莱坞更刻意。

去年3月我就下了判断

其实不用等纽约客的调查。产品层面的投票早就结束了。

2025年3月3日,Claude 3.7发布当天,我在即刻上写过一句至今没改过的判断:「你应该选择、且只选择接了Claude 3.7的AI编程工具。」

打开网易新闻 查看精彩图片

到去年5月Claude 4出来,我的话更直接:「最强编程模型+最强Agent基建。Anthropic对模型的所有优化都是奔着To B做AI coding和让开发者建agent而去的。」

从Claude 3.5到3.7到4到4.5再到现在的Opus 4.6,Anthropic在AI编程和Agentic方向上不是领先,是碾压。GPT-5出来我试了,评价是「可以用用,但是别期待太多」。

YC最新的数据也很有意思:入营创业者52%选了Anthropic,首次超过OpenAI。一年前OpenAI还占90%以上。

每天用这些工具的人,身体是最诚实的。不需要Ronan Farrow花18个月来告诉你谁更好用。

边骂边用

到这里你可能觉得我在替Anthropic写软文。

不是的。我要说一句大实话。

Anthropic对中国用户的态度,在所有AI公司里大概是最差的。封号、限制访问、区域屏蔽,做起来比谁都积极。我身边的开发者群是这样的日常:上午骂Anthropic又封了一批号,下午打开Claude Code赶工写代码。

打开网易新闻 查看精彩图片

骂完继续用。这个行为模式如果被行为经济学家观察到,大概会写进下一篇论文:「论理性个体在产品质量与国别情感之间的帕累托次优选择」。但我们的说法更简单——真香。

你知道最好的工具在谁手里。你也知道对方不怎么待见你。但你没得选,因为差距不是benchmark上的那一丢丢距离,真的能不能顺利把事做完,你自己很容易有体感的。

所以纽约客这篇调查,安全的争论对我来说不是重点。坦白说,AI安全叙事离大多数中国开发者挺远的。我关心的问题简单粗暴:谁的模型好用?谁的API稳?谁能帮我把产品做出来?

但这篇调查揭示了一件更底层的事。

一个连自己的董事会都骗、连PG都说「一直在骗我们」的人——当他跟你说「我们的模型是最好的」「我们重视安全」的时候,你的信任折扣打几折?

Dario离开的时候,他可能只是想做一家不需要撒谎的AI公司。结果是:一个更诚实的组织,做出了更好的产品,赚到了更多的钱。

你可以说这是安全主义的胜利。我更愿意把它理解为一个极其朴素的商业逻辑——一个不需要花精力维护谎言的团队,可以把全部精力放在产品上。

谎言是有利息的。你骗了一个人,就需要记住你骗了什么;骗了十个人,你需要一个系统来管理你的谎言库。这大概就是OpenAI真正的技术债——不在代码里,在叙事里。

最后一个思想实验

把纽约客这篇报道里的名字换一下。Sam Altman换成任何一个中国科技公司创始人。连自己董事会都骗。前老板说他一直在撒谎。前同事用了sociopath这个词。合作伙伴拿他和SBF比。

中文互联网会是什么反应?

你猜怎么着,微博热搜大概能挂三天,知乎会产出两千个「如何评价」,B站鬼畜区会在48小时内完成所有二创。

但换成Altman就没事了。因为他头顶的title是「人类AI未来的掌舵人」,这个光环大到可以遮住一切。就像Anthropic对中国开发者的态度也是小事一样——产品好就行了嘛。

AI行业的现状就是这样:最好的产品来自一家不太欢迎你的公司,而那家看起来最欢迎你的公司,它的CEO不受真相约束。

锤子的充裕,对应的就是钉子的稀缺。如果你分不清自己是锤子还是钉子——那你大概率是钉子。

不过作为钉子,我们早就练出了一项核心竞争力:先用着,别的以后再说。