Nathan Lambert。这个名字在AI圈的分量,相当于写RLHF教科书的人亲自下场给你解释什么叫RLHF。他是艾伦AI研究所的post-training负责人,写过RLHF教材,上过Lex Fridman播客,长期站在开源大模型最前沿。今年5月,他做了一件很多人想做但没做成的事,飞了一趟中国,面对面走访了几乎所有能叫上号的AI实验室,月之暗面、智谱、美团、小米、通义千问、蚂蚁、零一万物,一家都没落下。回来之后写了篇长文,叫《Notes from inside China's AI labs》。

打开网易新闻 查看精彩图片

文中中有很多有价值的观察,尤其是最后总结的6点。

先抛一个他观察到的略反直觉的现象。

中国AI圈,几乎所有实验室对同行只有尊重。字节跳动做豆包,是唯一跑在前沿的闭源实验室,大家都敬着它。DeepSeek则是所有人公认的研究品味和技术执行力天花板。Nathan说跟这些人聊天,你感受不到美国那种「我们的模型比你强」「你们那个架构有问题」的火药味。整个LLM社区给人的感觉更像一个生态系统,而不是一群互相厮杀的小部落。他提了一个细节,在北京,竞争实验室可能就隔几条街,那个密度让他想起湾区。

这种生态感到底怎么来的?Nathan发现了一个关键变量。

中国最顶尖的实验室里,有很大一部分核心贡献者是学生。不是打杂的实习生,是真的在写核心代码、参与模型训练的那种。这群年轻人没有被过去几年AI的炒作周期洗过脑,他们对LLM的理解方式极其纯粹,就是快速吸收大量文献,摸透公司技术栈,然后埋头干活。你要是跟他们聊AGI哲学、长期社会风险、模型经济学这些虚头八脑的议题,他们脸上会浮现出一种「你在说什么」的简单困惑。在他们看来,这些东西跟「把模型造好」之间,根本不是一个范畴的事。

Nathan自己都补了一段说明,说他最初觉得这种态度就是谦逊,后来意识到这其实也是他们成长和受训体系塑造的结果。体制内的成功者,自然会内化那套游戏的规则。

反观美国,OpenAI、Anthropic、Cursor根本不招实习生做核心工作。Google名义上有跟Gemini相关的实习项目,但实习生大概率被隔离在真正的工作之外。而在中国,学生的角色跟全职研究员几乎没有区别。

Nathan还听到了一个特别有意思的现象,中美都在发生人才流失,但方向不太一样。很多原本打算走学术轨道的学生,现在都决定留在工业界。有一个人跟他说,曾经考虑过当教授,因为觉得可以去影响教育系统。但他最后补了一句极其嚣张又极其真实的话,「教育已经被LLM解决了,学生为什么要跟我交谈?」这话放在今天的大环境里,真是又荒诞又让人唏嘘。

再说组织文化。

Nathan观察到的一个微妙但影响巨大的差异是ego的问题。在西方实验室,一个大牛研究员的idea如果没被选进最终模型,往往需要某种安抚甚至补偿来平息不满。说到底这就是组织内耗。但在中国实验室,这种冲突要少得多。研究者更愿意接受团队决策,更愿意去做那些看起来不「光鲜」但能切实提升模型质量的工作。他听到一句话挺有代表性的,中国是「工程师在管理一切」,美国是「律师在管理一切」。两套不同的文化系统,最终导向了不同的组织效率。

文章最后,Nathan把这趟走访中产业层面的发现,整理成了六个要点。

第一,关于中国AI市场的实际规模。一个普遍的假设是中国AI市场会比较小,因为中国企业历来不愿意为软件付费。这套逻辑对应的是SaaS生态,但Nathan的判断是,AI的支出更像云市场而不是SaaS市场,而云在中国是有巨大体量的。这事还没有定论,但没人真的在担心市场增长。

第二,中国AI开发者的工具选择。尽管Claude在中国是被屏蔽的,但这不妨碍所有人都在用它写代码。有人提到也用Kimi或者GLM的命令行工具,但最后都会补一句「不过写代码还是Claude」。而湾区眼下狂热追捧的Codex,在中国反而没多少人提。技术圈的声誉这东西,防火墙真的拦不住。

第三,中国公司对技术有一种强烈的「所有权心态」。美团做LLM,小米做LLM,蚂蚁做LLM,这些公司在外人看来可能跟AI八竿子打不着,但它们的逻辑很简单,LLM是未来技术产品的核心组件,必须自己掌握。Nathan给了一个画面,每次从电脑前抬起头,窗外总能看到一排排的起重机,「建设」本身就是一种文化。字节跳动和阿里巴巴被所有人视为最终会赢的大玩家,DeepSeek是受尊敬的技术领袖但不是市场赢家,它定方向,但没准备好从商业化上获胜。没有总体计划,就是大家都在建。

第四,政府层面的支持是真实存在的,但具体规模很难说清。中国政府是多层级、去中心化的,每一级都没有一本明确的行动手册。Nathan一路听到不少政府帮助的提及,但细节太少。没有任何迹象表明高层影响了模型里面的技术决策,但各地政府在消除官僚障碍、协助吸引人才方面,确实在发挥作用。

第五,数据产业链在中国远不如美国成熟。你可能听说过Anthropic和OpenAI在单一数据环境上的花费就超过一千万美元,累积数亿美元去推动RL前沿。中国也有数据公司,但质量参差不齐,大部分实验室选择自己动手造RL训练环境。这反而又强化了那种「能自己干就自己干」的务实传统。

第六,毫无悬念的一条共识,所有人都渴望更多Nvidia芯片。有供应就一定会买。华为的昇腾在推理端表现不错,很多实验室都能用上,但训练这一块,Nvidia是绝对金标准,没有替代选项。

这就是他整理出来的六个产业级观察。Nathan用了一句话收尾,作为美国人,他当然希望美国在AI的每一个层面都保持清晰领先,尤其是在开源模型这个他自己深耕的领域。但越来越多的行政命令正在影响开源模型,这种「美国领先加全球生态」的良性协同正在被破坏,他对此并不乐观。