全文 3,000字 | 阅读约 8 分钟

 GPT-5 发布失误后|OpenAI 联合创始人:增长看 3 件事,不拼更强模型
打开网易新闻 查看更多视频
GPT-5 发布失误后|OpenAI 联合创始人:增长看 3 件事,不拼更强模型

(OpenAI总裁Greg Brockman 谈 GPT-5 技术转向与未来布局)

8月15日,旧金山。Sam Altman 正式承认:

GPT-5 发布搞砸了 (we totally screwed up some things on the GPT-5's rollout)。

模型选择混乱、体验下降、4o 命名混乱、用户抱怨铺天盖地。OpenAI 甚至不得不恢复旧模型来稳定口碑。

(硅谷知名科技媒体《The Verge》关于Sam Altman谈论GPT-5发布失败的头条报道)

一边是产品失误的舆论风暴,另一边却是惊人的数据反弹: API 调用在发布后 48 小时内几乎翻倍,ChatGPT 周活跃用户逼近 7 亿,成为全球第五大网站。

失误是教训,数据是信号。

CEO Sam Altman 没有回避,更没有辩解。他和联合创始人兼总裁 Greg Brockman 在近期连续数场公开对谈中系统复盘这次出错的发布,给出了关于 OpenAI 增长路径的全新判断:

不是再造一个更强模型, 而是——三个更难、但更重要的抓手:

  1. 让模型开始会想:推理代替预测,模型不只输出答案,而是自己“过一遍脑子”

  2. 让 AI 真正能干活:不是一个聊天机器人,而是一个能配合人完成任务的协作伙伴

  3. 让计算力跟得上:投入万亿资金建设超大规模数据中心,从根本上解决GPU短缺瓶颈

正如 Greg Brockman 所说:

“我们可以训练出更强模型,但我们不会那样做。”

因为增长,不该靠参数堆叠,而要靠推理结构、协同系统与计算力重塑。

今天这篇文章,我们就来系统拆解这场罕见的复盘背后,OpenAI 正在构建的GPT-5 之后的增长路线图——

不是表层的产品动态,而是核心的战略逻辑。

增长第一步|模型开始会想了:从预测到推理

Greg Brockman 首先说: “我们过去在做什么?本质上是教模型预测接下来会发生什么。但现在我们发现,它必须学会自己想一想。”

因此,GPT 5 并不是一个“更聪明”的升级版。它更像是一个开始动脑子的模型。

在过去几年,大模型的训练逻辑可以归纳成一句话:喂足够多的内容,让它猜下一个词。 这确实奏效了,GPT-3 能写,GPT-4 能对话。但它们在复杂任务中经常胡说八道或者跑题的情况。为什么?因为它们并不理解自己在做什么。

Greg 说,这是 OpenAI 团队内部反复讨论的问题:“如果模型只是预测,而不自己思考,它很容易在关键时刻出错。”

于是他们开始试图让模型具备思维链——像人一样,先想,再说。这就是未来 AI 模型的核心方向:从输出结果,变成了自己推理一遍。

✅ 模型怎么自己想?靠反复提问、反复测试

这个过程,OpenAI 有个具体做法叫 “Auto-reflection”(自动反思)。简单理解就是:

模型回答一个问题后,会停下来问自己一句:这个答案靠谱吗?能不能再试试别的方向?

这看上去很傻,但 Greg 提到:很多时候,它第二次、第三次给出的答案比第一次强很多。

Sam Altman 曾用类比解释:AI 更应该像一个会自己检查作业的学生,而不是永远只写一版作文交上来。

为了训练这种能力,OpenAI 进行了一个精小而关键的研究项目:参加国际数学奥赛(IMO)。他们发现,当模型不是一次性解题,而是在每一步都评估自己的逻辑时, 它的数学水平大幅提高。

这说明了一件事:智能的提升不再依赖数据堆积,而是推理能力的质变。

✅ 重点不是聪明,而是靠谱

Greg 明确表示:

“AI 的目标不是更聪明,而是更有用。我们最看重的,是它能不能做事做对。”

比如,当你让 AI 帮你写一个请假邮件,它不会立即生成一封,而是先问你:“你是因为出差请假吗?还是身体不适?”,然后再根据你回答的细节构造内容。这种对过程的关注,是推理型 AI 和早期模型最大的差别。

从GPT-3的"学会回答",到GPT-5的"学会思考"——这是一个质的飞跃。

模型会想之后,会带来什么变化?

  • 第一,它能更少出错,更稳定。这对做产品的公司来说,是基础中的基础。

  • 第二,它能主动帮人分析复杂问题,而不只是机械地回答。

  • 第三,它能更好地和其他工具配合,成为一个“团队成员”,而不是“会说话的机器人”。

✅ 这个转变的深层含义是什么?

对开发者而言:你不再是在"调教"一个工具,而是在与一个能思考的实体协作。提示词变成了工作对话,编程变成了团队配合。

对产品创造者而言:AI 不再是功能模块,而是能理解意图、记住上下文、主动优化的工作伙伴。

这不是一次模型升级,而是一次协作方式的改变。

所以,OpenAI 增长的第一步,不是把模型做得更复杂,而是让它更可靠——先想清楚,再把事做好。

增长第二步|AI 开始能干活了:不再只是工具

在过去,大模型是“应答机器”。你提问,它回复;你写代码,它补全一行。

现在,OpenAI 正在把 AI 做成一个“能协作”的搭档,不是等你发指令,而是能和你一起干活,甚至自己分步骤、找方法、修错。

Greg 用很简单的话解释过这件事:

“我们不想让你用 GPT 时还得担心怎么说它才懂。我们想让它先理解你,然后自己搞清楚接下来要怎么做。”

✅ AI 会分解工作,也会自己找工具

举个例子:你想让 AI 写一个数据分析报告。过去的做法是,你一步步告诉它:

  • 请先写个 Python 代码读取 CSV 文件

  • 再帮我做个柱状图

  • 然后生成一段结论性的说明文字

现在这类推理 AI 不一样了

你只要说:“帮我看看这组销售数据有没有异常,再写个简单总结给老板。” 它会:

  • 自己先判断数据怎么处理

  • 主动调用图表工具(Code Interpreter)分析

  • 再生成清晰总结,并附上图示和文件下载

按照 Greg 描述的逻辑,未来的应用场景可能是:

“你给它一个网址,让它帮你订机票,AI 不会问你 30 个细节,而是会先去看这个页面是去哪的,自动补上你没说清楚的,然后告诉你订好了。”

✅ 能合作,而不是只听命令

这类 AI 最大的进步之一,是它能像一个助理那样,有自己的工作流程意识。

不是你说什么它才动,而是它能判断哪些步骤必须做,哪些可以跳过,还会反过来问你:你要的结果是这个意思吗?

这背后依赖的是一种工具调用的能力:新一代 AI 不只是语言模型,它能调动多种小工具来帮你完成一个任务——包括查资料、算数学、写脚本、发请求、生成图表等等。

Greg 对此有一句话特别形象:你不再是用一个智能体,而是像在管理一个工程小团队,它们能商量着完成一个目标。

为什么这很重要?

在 OpenAI 看来,让一个人 10 倍提效,比追求模型本身的提升更有价值。Sam 也说:

“我们花了大量精力在研究‘AI 怎么写代码’,但真正关键的问题是:人类怎么用它更好地工作。”

OpenAI 增长的第二步:

不追求更聪明的 AI,而是打造更能干活的协作伙伴。

增长第三步|用得起比更强重要:难点在算力

OpenAI 做模型,也不是想发布多少就能发布多少。

GPT-5 上线时,其实还有一个更厉害的模型,在内部测试表现非常好,但最后没推出来。为什么?Sam 说得很直接:因为用不起。

训练 AI 需要巨大的计算能力,而“算力”就像 AI 界的“石油”:全世界都要,但谁都不够。

OpenAI 现在面临的问题不是技术卡住,而是一个特别现实的问题——钱 + 芯片 + 电力,不够。

✅ GPT-5 只是开始,背后的工厂才是重点

你在手机上和 GPT 聊天,几秒钟一个回复。但在云端,模型需要调用大量显卡协同工作,每秒钟消耗的算力,可能超过普通企业一天的计算需求。

Greg 用了个很贴近生活的比喻:

“我们不是在造一个智能体,而是一个复杂的 AI 协作系统——就像一座精密工厂,只是这些复杂性都隐藏在用户看不见的地方。”

而这座“看不见的工厂”,目前还远远不够大。

Sam 在最近谈话中甚至说,未来他们的目标是——投数万亿美元,造新的数据中心。这不是什么口号,而是他们真实计划里的一部分。

✅ 成本高,是“算”出来的

不是所有任务都用得起 GPT-5或者GPT-N。它跑一次,对 OpenAI 来说,就比旧模型贵出好几倍。Greg 说:

“我们开始把计算能力当作核心资源来管理,不是什么都用最强模型做,而是要按需选择。”

这就是为什么现在 ChatGPT 会出现“模型选择器”——你点进去,会看到不同模型可用,而不是默认全是最新最强的。

因为他们想要更灵活地安排计算能力,把最强模型用在最合适的地方。但这只是权宜之计,根本问题还是GPU资源不够。

为了缓解这个瓶颈,OpenAI 开始做一件事:让模型自己变得更省资源,而不是靠堆芯片解决。

比如:

  • 智能分工:根据问题难易程度,自动安排"简单 AI"还是"复杂 AI"来处理

  • 任务协作:复杂工作交给专门工具,AI 只负责统筹指挥

  • 团队配合:不是让一个 AI 包办所有事,而是多个小 AI 各司其职、协同完成

这些操作的本质,就是一个目标:别再用大炮打蚊子。

✅ 对你来说,这意味着什么?

不管你是做产品、做创业、做运营,这件事都会影响你:

  • AI 成本差异大,别一上来就接更强大的模型,有些任务用旧模型就够了

  • 越能精准对接任务,越能压低成本,提高效率

  • 想用 AI 做事,不只是看功能,更要关注用得起、跑得快、接得稳

Sam 总结得很直接:

“我们要让开发者拥有‘计算调度权’,像调配团队一样调配算力。”

对 OpenAI 来说,这不仅是成本问题,更是产品能不能扩开的关键。

未来模型,不在于再升级一个版本,而是让更多人用得起,跑得稳,响应得快。

这,就是 OpenAI 增长的第三步。

结语|不是更强,是走得更远

OpenAI 在这次复盘中透露的重心,不是“打造最强模型”,而是更务实的增长路径。

增长的三件事看起来不酷—— 不是“更加强大”,而是:

  • 能一步步分析(推理)

  • 能一起把活干完(协作)

  • 能广泛接入而不崩(供给)

但这才是从产品变成基础设施的起点。

Greg 说:“我们的目标,是让模型成为你真正能依靠的工作伙伴。”

对每个用 AI 的人来说,这件事更值得关注:

关注的不应该是模型有多强,而是它如何更好地协助你工作。

这才是 GPT-5 之后,真正的方向——

不是更强,而是更有用。

本文由AI深度研究院出品,内容整理自Sam Altman与Greg Brockman近期公开访谈。未经授权,不得转载。

星标公众号, 点这里 1. 点击右上角 2. 点击"设为星标" ← AI深度研究员 ⋮ ← 设为星标

参考资料:

https://www.youtube.com/watch?v=35ZWesLrv5A&t=2883s&ab_channel=LatentSpace

https://www.theverge.com/command-line-newsletter/759897/sam-altman-chatgpt-openai-social-media-google-chrome-interview

https://www.latent.space/p/gpt5-router?utm_source=chatgpt.com

https://podcasts.apple.com/us/podcast/latent-space-the-ai-engineer-podcast/id1674008350?utm_source=chatgpt.com

https://www.axios.com/2025/08/15/sam-altman-gpt5-launch-chatgpt-future?utm_source=chatgpt.com

https://www.wired.com/story/openai-gpt-5-backlash-sam-altman/?utm_source=chatgpt.com

https://www.platformer.news/sam-altman-gpt-5-interview-lightcap-turley/?utm_source=chatgpt.com

来源:官方媒体/网络新闻

排版:Atlas

编辑:深思

主编: 图灵