打开网易新闻 查看精彩图片

信息来源:https://www.nature.com/articles/d41586-026-00893-2

《自然》报道,2026年3月18日,国际机器学习大会ICML官方博客发布了一则公告,在AI学术圈迅速引发震动。

会议组织者宣布,因506名评审人在审稿过程中违反了禁止使用AI的政策,与这批评审人相关的497篇投稿论文被直接拒稿,约占本届大会全部投稿量的2%。更引人注目的是,组织者抓住违规者所用的手段:在发给评审人阅读的论文PDF中,预先嵌入了只有AI才能"看见"的隐藏水印指令。

这是学术会议史上第一次在如此大规模使用AI水印技术来执行同行评审政策。

这个"陷阱"是如何运作的

技术细节本身颇具创意。ICML组织者事先建立了一个包含17万个短语的词库,为每篇提交论文随机抽取两个短语作为专属标记,任意一对被随机抽中的概率低于百亿分之一。这两个短语随后被以隐形指令的形式嵌入PDF文件,人眼阅读时完全看不到,但当评审人将PDF上传给大型语言模型时,AI会"读取"这些隐藏指令,并将对应的短语悄悄写进它生成的评审意见里。

一旦评审意见中出现了这对专属短语,就意味着该评审人把论文喂给了AI,并直接使用了AI输出的内容。测试显示,主流前沿AI模型遵从这些隐藏指令的成功率超过80%。每一个被系统标记的评审意见,都经过了人工逐一核实,以避免误判。

最终,795份评审意见被认定违规,涉及506名独立评审人。其中51人超过半数的评审意见被判定为AI生成,显示出高度系统性的使用习惯,而非偶发行为。这51人的全部评审意见均被删除,本人也被移出评审池。

关键背景是:ICML今年专门设计了两套评审政策供评审人自主选择,政策A完全禁止使用AI,政策B则在有限范围内允许AI辅助,例如帮助理解论文和润色措辞,但不得用于判断论文质量或撰写完整评审。这506名违规者,全部是主动选择了政策A、明确承诺不使用AI的评审人。

换句话说,他们不是被"误伤"的,而是在白纸黑字同意之后,主动违反了自己的承诺。

惩罚合理,还是株连无辜

公告一出,学术社区的反应两极分化。

支持者认为,ICML的做法立场清晰:规则是评审人自己选择并明确同意的,执法只针对最粗糙的违规行为,也就是把PDF直接扔给AI、然后复制粘贴输出的那种,更隐蔽的AI辅助使用根本无法被这套系统检测到。能抓到这么多,说明问题的规模相当真实。

质疑者则把矛头指向了两个层面。第一个层面是手段问题。在论文中预埋隐形陷阱,在当事人不知情的情况下实施监控,这与学术界倡导的信任文化是否相悖?一些研究人员直接用"钓鱼执法"来描述这种做法,认为它制造的是抓人的条件,而不是预防违规的环境。

第二个层面是处罚边界问题,也是争议最大的部分。被拒的497篇论文,可能涉及大量与违规评审人合作的其他作者,这些人的论文什么也没做错,却因为某位合著者在审阅别人论文时用了AI而被株连拒稿。这种连坐式处罚是否公平,组织者在公告中并未正面回应。

德克萨斯农工大学计算机科学家涂正中表示,这类政策的实际效果存疑,他担心这只会促使评审人转向用AI生成表面上看起来是人写的、但内容毫无意义的评审意见,治标不治本。

事实上,ICML自己也承认,这套水印技术只能抓到最粗心的违规者,而且有一个无法回避的致命弱点:它只有在不被公开的情况下才有效。现在这套方法已经完全公开,任何想违规的评审人只需让AI多改几遍输出,或者手动删掉关键词,就能轻松规避检测。这意味着它作为一种执法工具,实际上只能用一次。

与此同时,另一个不容忽视的结构性问题是:为什么会有这么多评审人冒着被抓的风险使用AI?Frontiers出版公司2025年的一项调查显示,超过半数的研究人员已经在同行评审中使用过AI,尽管大多数期刊和会议明令禁止。学术会议的投稿量持续膨胀,而评审工作不仅没有任何报酬,还被视为理所当然的义务,评审人面临的实质性压力是真实存在的。

ICML今年另辟蹊径,设立了两套并行政策,允许作者和评审人根据自身立场选择框架,这本身已是一种进步。但这次事件揭示的更深层矛盾,不是用不用AI的技术问题,而是整个同行评审体系的可持续性问题。学术诚信靠的是信任,而信任靠的是合理的制度设计,不是越来越精密的监控工具。