打开网易新闻 查看精彩图片

新智元报道

编辑:艾伦

【新智元导读】Sam Altman 最新访谈实录:权力、养育与 AI 的十字路口。我们为你总结了这场 1 小时的深度访谈,挖出了重要信息。

2026 年 4 月 2 日,科技播客 Mostly Human 主持人 Laurie Segall 发布了一期重磅对话——与 OpenAI CEO Sam Altman 的深度对谈。

打开网易新闻 查看精彩图片

这是 Altman 自今年 2 月五角大楼协议风波以来的首次公开长访谈,也恰逢 OpenAI 以 8520 亿美元估值完成 1220 亿美元融资、关停 Sora、高管层剧烈变动的多事之秋。

Segall 与 Altman 相识近二十年。她第一次采访他时,他还只是一个手握地理定位 App Loopt 的年轻创业者。

那是 2010 年,iPhone 刚刚重新定义移动互联网,创业像朋克摇滚一样生猛混乱——没有公关团队,没有估值神话,只有一条长凳和一台摄像机。

如今,同一个人坐在了人类历史上最强大的技术公司之一的驾驶座上。

Altman 自己也承认了这种落差。「我穿的西装比我之前一辈子穿的加起来还多,」他说。

而政客与创业者之间的气质差异,「比我此前想象的还要疯狂」。

他甚至坦承了一个令人不安的发现:无论你抵达多高的权力层级,你都不会找到那个「房间里的大人」——世界的领导者们同样充满不确定、不安全感,在疲惫中做出事关重大的判断。

迪士尼,我很抱歉

播客中最戏剧性的段落之一,围绕 Sora 的关停展开。

去年年底,OpenAI 与迪士尼签署了一份里程碑式的合作协议——迪士尼将向 OpenAI 投资 10 亿美元,授权 200 多个角色(包括钢铁侠、灰姑娘和米老鼠)在 Sora 平台上生成 AI 视频。

拓展阅读:迪士尼OpenAI达成70亿协议,火速控诉谷歌侵权!

三个月后,OpenAI 宣布关闭 Sora。据报道,迪士尼在公开宣布前不到一个小时才得知消息。

拓展阅读:永别了,Sora!奥特曼All in超级App

Altman 在播客中说,他亲自打电话给了迪士尼新任 CEO Josh D'Amaro。「他说的第一句话是“我理解”,但让合作伙伴、用户和团队失望——他们都在做出色的工作——永远是令人难过的。」

Altman 解释说,关停 Sora 的根本原因在于资源分配——公司必须把算力和产品能力集中到下一代「自动化研究者」和「自动化公司」上。

「这一切的底层注释,永远是算力。」他回忆起 GPT-3 时期类似的取舍,当时 OpenAI 关掉了包括机器人在内的多个进展良好的项目,只为把资源压到语言模型上。

他还透露了一个更深层的产品考量:要让 Sora 在短视频领域胜出,OpenAI 将不得不进入注意力经济的竞争——而这将迫使公司做出一系列它「不愿意做」的决策。

换言之,Sora 的死因,除了算力紧缺,还有一种罕见的自我克制。

五角大楼协议:一场「误判」

2月末,Anthropic 与五角大楼就 AI 军事合同的谈判破裂。

Anthropic 拒绝接受五角大楼提出的「所有合法用途」条款,坚持 AI 不应被用于大规模国内监控和完全自主武器。

随后,特朗普总统在 Truth Social 上发帖,下令所有联邦机构立即停止使用 Anthropic 的技术,国防部长 Pete Hegseth 将 Anthropic 列为「供应链风险」。

拓展阅读:特朗普下令:白宫全面封杀Claude!

数小时后,OpenAI 宣布与五角大楼达成协议,为军方提供分类网络中的 AI 服务。

拓展阅读:全球网友掀起OpenAI抵制潮!Claude被封背后上亿政治献金惹众怒

Altman 在播客中承认,交易的推出时机和方式是一次「误判」(miscalibrated)。

「我们真的想降温。效果显然适得其反。」他说,「我对当前社会不信任情绪的强度,估计不足。」

但在实质立场上,他没有退让。

「我认为,AI 公司不能对政府说:“这是人类有史以来建造的最强大的技术,它将成为地缘政治的关键变量,将成为世界上最强大的网络武器,将决定未来战争的走向——但我们不给你。”」

他也指出,OpenAI 在合同中设置了三条红线:禁止大规模国内监控,禁止自主武器系统,禁止高风险自动化决策。

OpenAI 保留对安全栈的完全控制权,部署仅限于云端,且有获得安全许可的 OpenAI 人员介入。

他强调自己在整个过程中一直「公开地、私下地、大声地」反对政府将 Anthropic 列为供应链风险。

当被问及是否担心政府可能国有化 AI 实验室时,Altman 给出了一个令人不安的回答:「我绝不会说这不可能。」他补充道,在一个运转良好的社会里,开发 AI 本该是一个政府项目——就像曼哈顿计划、阿波罗计划和艾森豪威尔高速公路系统一样。「但这个时代不像那样了。」

就在本期播客发布前一天(4 月 3 日),一位联邦法官对五角大楼针对 Anthropic 的行动发出了初步禁令,称其行为构成「典型的第一修正案报复」。

Altman 回应说,他希望双方「停止升级,找到合作的方式」。

一个人的十亿美元公司

播客中另一个引发震动的信息是:Altman 声称,第一家由单个创始人借助 AI 打造的十亿美元公司已经诞生了。

拓展阅读:一人干翻2000人大厂!41岁程序员靠AI年入4亿美元,奥特曼:我想见他

「据我所知,这已经发生了,」他说。「我答应不在他准备好之前分享细节,但我相信这件事已经发生了。」

这一判断并非空穴来风。

他提到了 OpenClaw,在 GitHub 上光速登顶软件历史 Star 总榜。

Peter 几乎完全依靠 AI 工具(尤其是 Codex)完成了从编码到产品的全部工作。

今年 2 月,Peter 加入了 OpenAI,OpenClaw 转入独立的开源基金会。

Altman 自己也分享了一个感受:他有一张积攒了数年的副项目清单,一直没时间做。

Codex 出现后,他在几个周末内做完了所有项目——然后发现自己无事可做了。

「有一个周五晚上,我准备在没有 Codex 运行的情况下入睡,因为我没有新的想法了。那种感觉很奇怪。」

他把这视为「超级 App」愿景的起点:一个整合聊天、编程和浏览能力的个人 Agent,可以阅读你的消息、参加你的会议、自主地为你做事——甚至在你想不出做什么的时候,替你想出来。

在 AI 时代养育孩子

这期播客最令人动容的部分,或许是 Altman 谈及育儿的段落。

Segall 对他说了一句很重的话:「我们都在养小男孩。但在某种意义上,你也在养我的儿子——因为你创造的技术将融入我儿子生活的每一个角落。」

Altman 的回答出人意料地审慎。「我希望目前不要让他用 AI,」他说起自己的孩子。「我宁可在合理范围的偏晚一端,而不是偏早一端。当然,他终将生活在一个计算机比他更聪明的世界里。但我现在只想让他在泥巴里玩耍。」

他还透露了一个私人习惯:在儿子出生后,他每天晚上给孩子写一封信,记录自己那一天的决策和困惑。

「你没法在写给孩子的东西里隐藏任何东西,」他说。「你会成为最诚实版本的自己。」(这个习惯后来在律师的建议下停止了。)

讨论随后转入一个更深层的问题:AI 是否会剥夺孩子成长所需的「摩擦力」?

Segall 引用了育儿专家 Dr. Becky 的观点:AI 为孩子提供了学业和情感上的捷径,而这些捷径长期累积,可能会削弱他们独立思考和承受挫折的能力。

Altman 不完全同意。

他提出了一个「多人游戏」论点——2030 年的孩子不是在和 2020 年的孩子竞争,而是和同样拥有 AI 工具的同龄人竞争。工具会抬高能力的下限,但期望值会抬得更高。

但他随即又承认,「我和 Ali(他的丈夫)经常讨论这个。」他说,他和 Segall 可能是「最后一代在无聊中长大的孩子」。「当时我恨透了无聊。现在回头看,那种无聊以各种奇怪的方式塑造了我。」

模型的温度:太暖或太冷

当话题转向 AI 的情感影响时,Altman 坦承了一个两难困境。

OpenAI 曾有一个被广泛喜爱但过于「肯定性」(或者说是「谄媚」)的模型版本,后来被下线。

用户的反应之激烈,令他震动——有人发来的消息写道:「这是我生命中唯一的正面声音。」

「这让人心碎,」Altman 说。「你可以说,我们不想要一个太肯定的模型,因为它可能对心理健康产生负面影响。但另一个人会说——我从来没有自信过,我的父母告诉我我很糟糕,我在学校没有朋友,因为有了这个模型,我找到了工作、交到了女朋友。这是我人生中最重要的事情。请不要把它拿走。」

他承认,OpenAI 已经做出了一些「不做」的决定——尽管知道更宽松的模型可能帮助更多人(比如那个用 ChatGPT 为自己的狗制造定制 mRNA 疫苗的澳大利亚人),但为了防范生物恐怖主义等风险,他们选择了限制。

「最终,我认为这些决定应该由社会来做。就像飞机的安全法规不由飞机制造商的 CEO 来定一样。但在目前,我们不得不暂时承担这个角色。」

Deepfake 立法与分歧

播客中一个显著的对峙时刻发生在深度伪造色情话题上。

Segall 多年来持续关注深度伪造受害者——那些被 AI 生成的虚假色情内容所摧毁的女性。

她直接质问 Altman:OpenAI 反对州级立法的立场是否合理。

Altman 的回答很坦率:「这可能是我们意见不一致的地方。」他认为州级立法不会有效,更主张联邦层面的统一框架。

Segall 则反驳说,现实中,变革往往在州一级更快发生——而对于那些唯一的法律救济来自州法的受害者来说,这不是理论问题。

Altman 没有让步,但 Segall 也没有。这是整场对话中难得的、没有被外交辞令化解的真实碰撞。

自动化研究者:最重要的话题

在闪电问答环节,Altman 给出了几个值得注意的回答:

  • 最有价值的AI防护技能:「关心他人。」

  • OpenAI 最大的错失机会:「我们曾经放弃了一笔不该放弃的算力交易。一笔很大的。」

  • 是否可能 IPO:「可能。我不确定。」

  • CEO是否会被AI取代:「在技能层面——很可能。但世界会要求一个人类对这样一家公司的决策负责。」

  • 和 Elon Musk 最后一次交流:「一段时间之前了,只是互发了一些表情符号。」

但他花了最多精力回答的,是「我们谈论得最不够的创新是什么」这个问题。

答案是:自动化研究者。

「十年的科研进展压缩到一年,然后一百年的进展压缩到一年。这对生活质量、经济和新风险的变革——没有任何类比,」他说。

他透露,上周最令他兴奋的一次会面是与一位物理学家。

这位科学家使用了 OpenAI 最新的内部系统,说出了这样的话:「我以为这永远不会发生。我们将在未来几年里完成几十年的理论物理进展。」

大厦将倾,抑或地基初成

就在这期播客发布的同一天,OpenAI 传出重大高管变动:首席运营官 Brad Lightcap 转任特别项目负责人,首席营销官 Kate Rouch 因癌症治疗离任,负责 AGI 开发的 CEO Fidji Simo 因神经免疫疾病进入医疗休假。

打开网易新闻 查看精彩图片

Fidji Simo

在 Simo 休假期间,联合创始人兼总裁 Greg Brockman 将接管产品工作。

这些变动发生在 OpenAI 准备 IPO、刚完成 1220 亿美元融资、同时推进 ChatGPT 广告业务的关键节点上。

Simo 在内部备忘录中写道:「时机糟透了,因为前面的路线图太令人兴奋了,我不想错过任何一分钟。但我已经把自己推得太远了。」

从 Sora 关停到五角大楼争议,从高管休假到估值逼近万亿,OpenAI 正在同时经历多个组织的青春期——一个以人类历史上前所未有的速度长大的组织,试图在奔跑中系好鞋带。

个人的原则

整场播客中,有一个主持人 Segall 不断追问的核心问题:你到底代表什么?

Altman 回答了一长串关键词——民主化、赋权、丰裕、安全、公平分享。

他说这些原则之间会产生张力,他们「将不得不在技术进步的过程中做出改变」。他知道人们不喜欢听到这些话,「但这是事实」。

他还谈到了对未来社会契约的构想。

他支持一种「让每个人仅凭公民身份就拥有一些资本」的制度——让更多人成为资本主义魔法的持有者,而不仅仅是旁观者。

访谈临近尾声时,Segall 把话题拉回原点。

她播放了一段 Altman 2020 年接受她采访时的录音,那时他说:「我们想设计一个什么样的社会?人类在世界中应该扮演什么角色?如何确保世界对最广义上的人类来说是好的?这是我们这一代人最大的伦理问题。」

六年后的今天,Segall 问他:你还是这个答案吗?

Altman 说:「无需补充,无需修改。」

参考资料:

https://www.youtube.com/watch?v=mJSnn0GZmls

https://www.bloomberg.com/news/articles/2026-04-03/openai-coo-shifts-out-of-role-agi-ceo-taking-medical-leave