今天听完OpenAI华人工程师翁家翌和xAI工程师Sulaiman Ghori的播客采访。发现两位的分享有种隔空的默契,关于模型迭代、AI公司如何进步的观点很类似,也很有启发。

先介绍翁家翌大佬,他从清华本科毕业后出国读研,后来在OpenAI发布ChatGPT之前加入了这家公司。作为RL Infra的关键工程师,他参与了GPT-3.5、GPT-4、GPT-5等核心模型的训练。

1️⃣翁家翌一直强调,现在模型性能的提升,很多时候是infra迭代速度决定的。背后逻辑是,如果要验证一个想法,那一定需要Infra支持。这个时候如果Infra正确,那么谁在更短时间内验证的次数多、迭代效率高,就越可能找到最有效的方案。

2️⃣顺着这个逻辑,之后最容易被取代的是researcher,因为idea is cheap,可以和别人、AI讨论生产。这里翁家翌还分享了一个自己同事的金句:“教一个researcher如何做好engineering,比教一个engineer如何做好research难得多。”(…

3️⃣他还觉得OpenAI不是infra迭代速度最快的,因为公司现在好几千人了,组织大就会降低效率。去年DeepSeek震惊全球时让OpenAI内部很警觉,因为“DeepSeek那波迭代声称很快”。目前OpenAI内部在重构新Infra架构,加速迭代。他还说OpenAI“早就不做为了刷榜而做的事了”。

另外就是xAI的工程师Sulaiman Ghori也上了播客。他说了很多xAI内部的秘密㊙️(似乎现在因为泄密太多被马斯克开除了…

Sulaiman Ghori创业失败后加入xAI,还是神秘兮兮的MacroHard项目的早期成员。他转入这个项目时组里只有两个人。听Sulaiman Ghori分享,感觉xAI已经把“速度”这件事刻在骨子里:

1️⃣ xAI现在的一部分技术路线押注小模型,不搞Scaling那套,要靠“迭代速度”取胜。

这背后的原因是,模型小=训练成本低=周期短=试错成本低。大家可以多试几个方向,发现效果好的方向就去加码。

2️⃣xAI并行跑着的几十个训练任务通常由少数几个人负责。如果某个条件暂时不成熟(比如硬件、数据这几天不就绪)会先跑几种方案,看哪个今天能交付、能产生收入或效果,两周后条件成熟再切换。

3️⃣马斯克在内部强调过,xAI招聘不强调单独的Researcher,大家都是engineer。

听完这两期内容,感觉翁家翌和Sulaiman Ghori的分享确实是殊途同归:有迭代速度才有验证和试错空间。尤其当架构需要创新,idea需要验证,竞争对手又特别强的时候,敏捷就是一切!

#马斯克 #OpenAI#AI#科技播客精华

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片