506个审稿人偷偷用了大语言模型,结果他们审的论文全被 desk reject( desk 拒稿,即未经完整评审直接拒稿)。这是顶会 ICML 2026 刚公布的数字。
但更有趣的是规则本身:ICML 今年搞了个"双轨制"——有的审稿人可以用大语言模型(大模型),有的坚决不能。作者投稿时可以选择自己愿意被哪种政策审。结果 497 篇论文的作者,恰好抽到了"坚决不能"的审稿人,而那个人违规用了 AI。
这不像简单的作弊抓包。更像一场关于"学术信任怎么重建"的大型实验。
双轨制是怎么运行的
ICML 2026 的程序主席团队在公告里解释了设计逻辑。
政策 A:审稿人承诺完全不用大模型写评审意见。
政策 B:审稿人可以用,但要明确披露。
「社区在这个问题上存在分歧」,公告里写道。有人担心作者没同意就不该用 AI 审自己的论文;有人觉得大模型已经是工作流的一部分,强行禁止不现实。
所以 ICML 让双方各选各的。审稿人先选自己愿意遵守哪条规则,作者再选愿意被哪条规则审。最终,只有明确选"A"或"AB 都行"的审稿人,才会被分配到政策 A 的论文。
换句话说,那 506 个违规者,是自愿走进"无 AI 考场"的。
检测方法:不用通用探测器,全程人工复核
795 篇评审被标记为疑似使用大模型,涉及 506 个独立审稿人。ICML 强调,他们没有用市面上那些"AI 文本检测器"——这类工具误报率高,在学术场景里尤其危险。
具体方法没有完全公开,但流程是:系统标记 → 人工逐条核实 → 确认违规才执行惩罚。所有被标记的案例都经过了人工复核,避免冤枉。
惩罚力度很直接:
• 如果某篇论文的"互审审稿人"(reciprocal reviewer,即该作者自己也要审的那批人里的对应者)违规,这篇论文直接 desk reject——497 篇就是这么没的
• 如果某个政策 A 审稿人超过一半的评审被确认用了大模型,ta 的所有评审被删除,本人被踢出审稿人池
51 个人触发了第二条,占 506 个违规者的 10%。
正方:规则必须硬,信任是学术的底层代码
支持严罚的观点很直接:你选了政策 A,就是签了合同。用没用大模型不是质量问题,是契约问题。
ICML 的公告特意澄清:「我们不是对评审质量或审稿人意图做判断」。哪怕你用大模型写出了诺贝尔奖级别的评审,只要承诺了不用,用了就是违规。
这个逻辑背后是学术评审的特殊性。双盲评审能运转,靠的是一套"所有人都在同一套约束下"的默契。如果审稿人偷偷用大模型润色、扩写、甚至生成核心观点,作者却以为自己在和"纯人类"对话,这种信息不对称会腐蚀整个系统的合法性。
更现实的考量是:如果这次不罚,明年谁还选政策 A?双轨制会崩溃成"所有人都被迫选 B"的单轨制,那部分作者的选择权就被剥夺了。
反方:2% 的拒稿率,代价是不是太高?
质疑的声音集中在"连带责任"上。497 篇论文的作者做错了什么?他们只是随机分配到了一个违规审稿人。
ICML 的解释是"互审机制"——这些作者自己也是审稿人,他们的审稿对象恰好抽到了他们。但这种连带在情感上很难接受:我投的稿被毙了,是因为我审的那个人作弊?
另一个争议点是检测的边界。ICML 说"用了大模型"就包括"在写作的某个环节使用",哪怕只是润色语法。这在政策 A 里是明确禁止的,但现实中很多研究者已经把大模型当成了高级版 Grammarly。一刀切地禁止,和一刀切地惩罚,是不是过于粗暴?
还有技术层面的疑问:795 篇标记、506 人、平均每人 1.57 篇——这个分布意味着大量人是"偶尔使用"而非系统性作弊。10% 的人超过半数评审用 AI,剩下 90% 是"用了但不多"。对后者执行 desk reject,比例原则是否成立?
我的判断:这不是终点,是压力测试
ICML 这次的操作,本质上是在用真实数据回答一个问题:学术共同体能不能在"允许 AI"和"禁止 AI"之间划出清晰的边界?
2% 的 desk reject 率、1% 的评审标记率、10% 的违规者属于"重度使用"——这些数字说明,完全禁止大模型在现阶段是不现实的。哪怕在自愿选择、明确告知、有惩罚威慑的情况下,仍有 506 个人没忍住。
但双轨制本身是有价值的。它至少保护了"不想被 AI 审"的作者的选择权,也给了社区一个观察窗口:到底有多少人、在什么场景下、愿意遵守完全无 AI 的承诺?
接下来值得关注的,是政策 B 的披露质量。如果"允许使用"变成了"懒得披露",那双轨制就退化成单轨的遮羞布。以及,那 51 个被踢出审稿池的人,明年会不会换个身份回来?
学术出版正在经历一场缓慢的地震。ICML 这次的动作,是少数几个愿意公开数据、承认矛盾、尝试制度的顶会之一。它的不完美恰恰说明:这个问题没有 clean 的答案,只有持续的协商。
明年,当 NeurIPS、ICLR 跟进时,他们是会复制 ICML 的双轨制,还是走向更严格的全面禁止,又或者彻底放开?这 497 篇论文的命运,会不会成为学术史上的一个脚注——关于人类如何与 AI 共处,我们曾经认真地划过一次线?
热门跟贴