最近,AI三大顶会之一ICLR 2026放榜,中国大陆论文占比43.7%,加上香港7.7%,中国机构合计拿下全球超过一半的录用席位,首次超过美国的31.9%。
高校端,清华大学332篇,位列全球第一。斯坦福177篇,MIT 167篇,清华一家的数量大约等于这两所学校相加。上交、浙大、北大、港大也都排进全球前列,中国高校在这份榜单上已经不是零星出现,而是密集铺开。
企业端同样如此。阿里巴巴和上海AI Lab各135篇,华为111篇,字节跳动107篇,腾讯94篇,五家合计582篇,超过很多国家的全国总产出。上海AI Lab的出现值得单独注意,这家介于高校和企业之间、有政府资本背景的新型科研机构,正在成为中国AI研究生态里越来越重要的第三极。
ICLR是AI三大顶会之一,同行评审,没有主场优势。这些数字是真实的。
中国每年工程类博士毕业生数量已经是美国的数倍,相当大比例集中在AI相关方向。头部高校和企业研究院之间的联培体系,把工业界的算力和数据资源直接接入了学术产出的链条。过去十年从985高校到国家实验室,AI方向的资源注入是持续性的、系统性的。
这三件事叠在一起,论文数量的上升是结构性的结果。
但论文数量不等于质量。
在ICLR里更受关注的是Oral论文,它们的 评审标准不只是结果好不好,还包括这项工作有没有改变研究者思考这个问题的方式,是更有原创性、更能影响未来方向成果。
ICLR的Oral论文通常只占总录用量的4%左右,本届Oral论文里,美国机构占比约40%,中国约30%。杰出论文奖,仍然更多落在欧美机构手里。
中国AI目前产出密度最高的方向,是把已有的问题解决得更好,比如工程优化、benchmark提升、规模化落地。这些工作的价值是真实的,很多也相当扎实。
只是在另一类工作上,也就是提出一个新问题、让全球研究者跟着这个问题走上好几年,中国机构还没有形成稳定的产出。
这可能也不是能力的问题。现有的激励结构——论文发表与毕业、考核、融资挂钩——倾向于选择两年内能出结果的方向。自由探索需要更长的周期和更宽的容错空间,而这些在现有体系里属于稀缺资源。
科研话语权的核心,是谁在定义问题,定义问题的重要性。
Transformer、扩散模型、RLHF,这些范式都从北美的实验室里长出来,然后被全球研究者跟着做了很多年,中国研究者也在其中。数量上的领先,意味着中国已经充分进入了这个舞台。但定义下一个重要问题的能力,还没有随之转移过来。
DeepSeek R1是一个值得认真对待的信号。MoE架构的规模化路径带有一定的范式性,不只是工程层面的改进。如果类似的工作能持续出现,这个差距收窄的速度可能快于外界的预期。
中国AI研究者正在做一件前所未有的事,用工业化的速度在全球顶级学术舞台建立存在感,同时试图完成从跟跑到并跑的切换。
半壁江山是一个真实的位置。但下一个被全球AI研究者集体追着解答的问题,会不会第一次从中国的实验室里提出来,这个问题还没有答案。
热门跟贴