来源:科学网
资深环境科学家、韩国忠南大学教授洪成进(Seongjin Hong)最近很不爽,他带领团队完成的一篇环境化学论文被拒稿了。更让他生气的是,给出拒稿意见的评审人很可能不是人,而是AI。
洪成进是如此意难平,以至于他专门在《泰晤士高等教育》撰文吐槽,其团队论文疑因 AI 工具生成的评审意见被拒稿。
这一指控引发众多学者对 AI 不当介入同行评审及其风险的激烈讨论。
图片由 AI 生成
从模糊矛盾且偏离主题的评审意见,到期刊主编以「极不可能」来否认指控......有评论认为——这起「AI 审稿疑云」已超越个案,直指学术诚信与科技伦理的核心问题:在应对审稿人短缺与效率压力的同时,如何守护同行评审的严谨、专业与公正性?
一场 AI 审稿疑云
今年年初,洪成进团队向某知名国际环境科学期刊投稿一篇关于「新型环境分析方法现场应用」的论文。
通过首轮评审后,团队根据审稿人意见进行了详细修订。然而,修订稿提交后,论文却因一位审稿人第二轮出人意料的负面报告而遭拒稿。
「意见自相矛盾,且与论文无关。」洪成进在文中指出,这份评审报告存在显著异常。
首先,审稿人提出了首轮未提及的全新质疑点。例如,针对一项明确聚焦于环境化学领域现场分析方法的研究,评审意见却批评其未能提供「全面的生态评估」,甚至要求补充「对动物交配行为的影响分析」——这些要求更符合行为生态学的研究范畴。
其次,报告存在明显的逻辑矛盾与事实偏差。该报告声称「化学分析的可重复性未充分解释」,而事实上,该问题已在论文多个章节明确阐述。
评审语言本身也很奇怪。
「评语像用关键词拼凑的模板。」
洪成进发现,报告充斥着诸如「需要更多验证」「缺乏全面性」等笼统、公式化的评语。更蹊跷的是,审稿人在报告开头承认「作者回应了提出的问题」,却在未提供充分理由的情况下称「无法推荐该文发表」。
基于自身 15 年研究经验,以及发表 150 余篇论文并担任期刊副主编的经历,洪成进注意到,近年来表面流畅但缺乏深度和专业责任感的评审报告逐渐增多。由此,他怀疑此评审意见可能部分或全部由 AI 生成。
为验证猜想,洪成进用大型语言模型 ChatGPT 生成模拟评审意见并进行比对,发现二者在语言风格和论证缺陷上高度一致。
「它读起来像自动回复,而非深思熟虑的科学评判。」洪成进表示。
面对其提交的详细证据,期刊主编仅回应「审稿人使用AI的可能性极低」,并建议将修订稿作为新投稿重新提交——这意味着团队三个月的修订工作归零。
洪成进直言:「科学研究不应依赖运气。若评审沦为关键词驱动的机械流程,学术信任的基石将崩塌。」
证据还是臆断?
洪成进的指控在学术界引发争议,两方观点鲜明对立。
支持者认同其经验判断,认为资深研究者对评审异常情况具备敏锐辨识力。评论者 J. Miller 指出,经验丰富的学者往往能察觉评审中的非典型信号。 J. Smith 则表示,这一事件是对 AI 工具潜在风险的必要警示。
然而,反对的声音同样强烈。
评论者 Roger 认为,在缺乏确凿证据的情况下使用「可能」一词,弱化了指控的严肃性,有规避举证责任之嫌。Graff 则指出,未公开具体期刊名称削弱了质疑的立论基础。
围绕这一事件,双方争论主要聚焦于几个核心问题。
核心争议首先指向举证。反对者强调学术评审本就存在主观性,并非 AI 独有现象,在传统人工评审中也时有发生。匿名评论称:「哪位资深学者没遭遇过更令人费解的拒稿?」也有观点认为洪成进「两头通吃」——用「可能」规避法律风险,又借舆论向期刊施压。
此外,关于 AI 在审稿中的伦理界限成为焦点。多数学者支持 AI 作为有限辅助工具,用于查重、语法检查或文献初筛,但坚决反对其生成完整的评审意见。
评论者 T. Kim 的观点颇具代表性:「若审稿人无暇或无意进行深入评审,应直接拒绝邀请,而非依赖AI代劳。」
更深层次的讨论聚焦系统性风险与批判性思维的弱化。有学者指出:「当学生用 AI 写作业、审稿人用 AI 生成报告,批判性思维将集体退化。」
这种忧虑并非空穴来风,斯坦福大学一项研究显示,超过半数的研究生承认用 AI 撰写「非核心」论文章节。由此可见,AI 渗透已构成贯穿学术链条的现实风险。
类似争议并非孤例。《自然》2024 年调查显示,30% 的编辑承认 AI 检测结果会影响终审决定。剑桥学者莎拉·康纳的担忧引发共鸣:「我们批判学生依赖 AI,却对审稿环节的自动化视而不见,这是学术版的何不食肉糜。」
值得注意的是,尽管立场存在分歧,争论双方在一个关键问题上达成了共识:无论引发此次争议的评审意见是否涉及 AI 工具,低质量同行评审意见已是当前学术出版体系中一个不容忽视的痼疾。解决这一深层问题,比单纯争论单次事件是否涉及 AI,更具普遍意义。
重构学术公信力
面对自动化审稿的潜在风险,国际上正积极寻求解决之道,核心在于提升透明度与强化责任。洪成进表示:「科学研究不应依赖运气。同行评审必须建立在公平、透明和专业知识的基础之上。」
透明化被视作重建信任的关键。洪成进呼吁建立披露机制:审稿人需声明 AI 工具使用范围,期刊应说明评审流程的自动化程度。
这一立场与国际顶级期刊的实践相呼应。2024 年 3 月,
Nature母公司 Springer Nature 明确规定:允许 AI 辅助初筛,但所有结果必须人工复核,严格禁止完全依赖 AI 做出审稿结论。
2025 年 6 月,
Nature进一步宣布,将随论文全文公开所有评审意见及作者回应。主编 Magdalena Skipper 强调: 「 让评审过程晒太阳,才能重建信任。 」
技术检测与人机协同是另一道关键防线。目前,刊物出版商正着手开发 AI 内容检测系统,但现有技术仍存在瓶颈。数据显示,当前主流检测工具如 iThenticate 2.0 对非英语母语者论文误判率高达 15%。这些工具主要依赖文本统计特征进行分析,虽能进行初步筛查,却难以精准区分「AI 辅助写作」与「完全 AI 生成」的文本。
面对技术局限,强化人工监督至关重要。麻省理工学院出版社建议:编辑必须对 AI 辅助内容进行实质性复核并签字担责。同时,部分期刊也在探索「开放评审抗辩权」,允许作者对疑似 AI 痕迹过重的评审提出质疑,触发编委会仲裁。
在此背景下,一场学术信任保卫战已然展开。技术浪潮不可逆,但如洪成进所言:「若评审沦为自动化黑箱,科学信任的根基将受侵蚀。」在效率与严谨的博弈中,确保评审透明化与坚守人的主体性,仍是不可退守的底线。
https://www.timeshighereducation.com/opinion/my-paper-was-probably-reviewed-ai-and-thats-serious-problem
我们长期为科研用户提供前沿资讯、实验方法、选品推荐等服务,并且组建了 70 多个不同领域的专业交流群,覆盖PCR、细胞实验、蛋白研究、神经科学、肿瘤免疫、基因编辑、外泌体、类器官等领域,定期分享实验干货、文献解读等活动。
添加实验菌企微,回复【】中的序号,即可领取对应的资料包哦~
【2401】论文写作干货资料(100 页)
【2402】国内重点实验室分子生物学实验方法汇总(60 页)
【2403】2024 最新最全影响因子(20000+ 期刊目录)
【2404】免疫学信号通路手册
【2405】PCR 实验 protocol 汇总
【2406】免疫荧光实验 protocol 合集
【2407】细胞培养手册
【2408】蛋白纯化实验手册
【2501】染色体分析方法汇总
【2502】国自然中标标书模板
【2503】WB 实验详解及常见问题解答
【2504】DeepSeek 论文写作常用口令
【2505】中国科学院期刊分区表(2025 年最新版)
【2506】期刊影响因子(2025 年最新版)
热门跟贴