刚刚,全球 AI 圈流传出一则足以引发行业地震的消息:DeepSeek 的核心研究员、R1 与 V3 系列模型的主要作者之一郭达雅或已正式入职字节跳动

在 2025 年 DeepSeek-R1 以前瞻性的强化学习技术横扫全球、甚至由于其极高的能效比登上 Nature 杂志封面后,核心人才的去向便成了各大厂争夺的焦点。而郭达雅的这次“转场”,不仅是顶级科学家的职业选择,更是大模型竞争进入“长跑阶段”后,算力巨头对底层推理逻辑的一次精准狩猎。

即便在牛人辈出的 DeepSeek,郭达雅的名字也带有某种“扫地僧”色彩。

打开网易新闻 查看精彩图片

图片来源:中山大学

根据公开信息,郭达雅本科与博士均就读于中山大学,师从人工智能学院印鉴教授,并由前微软亚洲研究院(MSRA)副院长周明博士联合培养。这位曾在腾讯广告算法大赛蝉联冠军、被调侃“还没毕业就赚够百万奖金”的天才,在 DeepSeek 期间填补了最核心的两块技术版图:

  1. 代码智能(Code Intelligence): 他主导了 DeepSeek-Coder 系列的演进,通过极致的数据清洗与结构化训练,让模型在代码生成与补全上达到了行业顶尖。

  2. 纯强化学习(RL)的拓荒: 作为 R1 推理模型的核心作者,他参与探索了如何在不依赖大规模人工标注(SFT)的情况下,通过大规模强化学习让模型自主演化出“自我反思”与“思维链(CoT)”。正是这一突破,让中国大模型在 2025 年实现了对硅谷的“逻辑奇袭”。

打开网易新闻 查看精彩图片
这样一位顶级战将的转场,绝非简单的职场跳槽,它更像是一个风向标。在经历了过去两年的工程狂奔后,大模型竞争已经从单纯的参数比拼、算力堆砌转向量化、推理效率与逻辑深度的博弈。 字节跳动拥有近乎无限的算力池和全球最丰富的应用场景,它急需像郭达雅这样能把“底层逻辑”和“极致算法利用”结合起来的人物,来助力豆包或 Seed 系列模型完成从好用到硬核推理的飞跃。

值得关注的是,AI 顶尖人才的流向从来不是单行道。在郭达雅入驻大厂的同时,字节跳动内部也有大量资深大牛流向市场,形成了一种高频次、高质量的“技术代谢”。

打开网易新闻 查看精彩图片

据猎头圈内消息,过去一年已有近 30 名字节 AI 核心成员被某头部大厂以数倍薪酬和更高职级挖走,同时约有 60-70 名 Seed 成员密集流向各大模型公司。

除了传统巨头,新兴独角兽也是这股技术红利的主要受益者。最有代表性的两个案例,是DeepSeek首位员工李宇琨和Kimi后训练负责人宋鸿涌。

  • 李宇琨。他是 DeepSeek 的首位员工。他曾于 2021 年加入字节,后从字节搜索团队离开,并在 2023 年加入 DeepSeek,负责预训练数据相关工作。
  • 宋鸿涌。他在 2020 至 2022 年间就职于字节游戏部门,主要从事游戏 AI 中的强化学习研究;2023 年至 2025 年进入 Kimi,核心负责 post-training 和 RL 方向,并在这套能力链条上持续深耕。到 2025 年底,宋鸿涌又从 Kimi 离职创业,转向机器人赛道。

我们正在目睹的,不仅仅是一场人才的迁徙,更是中国 AI 正在告别追随硅谷的稚嫩,转向“中国式模型”和“应用创新”爆发的标志。

这种大规模的人才流动,正以一种工程技术平权的方式打破行业的技术孤岛,让整个中国 AI 生态受益。大模型公司得到了有实战经验的技术火种,而 AI 创业领域也获得了更多资本的押注。

大模型的江湖,从来没有永远的胜者,只有不断流动的、最聪明的大脑。郭达雅加盟字节后,豆包能否迎来属于自己的“R1 时刻”?这场由人才流动引发的连环反应,才刚刚开始。

来源:Z Finance