在ChatGPT等AI出现之后,我们陆续见识过一些论文,引用了不存在的文献,却依然发表了。近期,有篇文章更加夸张:它引用的文献中,有一篇显示来自所投稿的期刊,但这篇文献也完全是虚构的。
这篇文章在期刊发表了,而且作者坚称他们使用AI是符合期刊指南的。
文章链接:https://link.springer.com/article/10.1007/s00134-024-07752-6#change-history
这篇文章是一篇“致编辑的信”,发表于2024年12月的《Intensive Care Medicine》,探讨了AI如何帮助临床医生监测重症监护室患者的血液循环。
这篇750字的文章包含了15条参考文献。其中5条引文可以检索到,但1篇发表年份有误,1篇作者顺序、页码、标题和真实文献有所出入。剩下的10条无论是在其标注的期刊还是其他期刊,标题都无法匹配到相应的文章。
特别是第11条参考文献,显示也是一篇来自《Intensive Care Medicine》的论文,关于重症监护中整合AI驱动的血流动力学监测。实际上,在该期刊中找不到任何与此相符的文章,甚至找不到这篇论文列出的作者在该期刊发表的任何文章。
期刊撤稿
《Intensive Care Medicine》是欧洲重症监护医学会的期刊,由施普林格·自然出版。2025年11月4日,出版商在该文章下添加了一则编辑说明,指出“有人提出文中存在虚假引文的问题”。
图.撤稿声明
期刊最终于11月29日撤稿。撤稿声明指出:作者表示,这些不存在的参考文献是由于使用生成式AI将引用文章的PubMed ID转换为结构化参考文献列表导致的。因此,期刊不再对文章内容的可靠性抱有信心。
声明还指出,该文章未按照期刊的编辑政策进行同行评审。
施普林格的医学类出版总监Jordan Schilling表示,出版商最早于2025年1月得知了有关该文章的问题,但并未说明问题来自虚假引文还是同行评审。
作者及其机构的回应
阿姆斯特丹大学医学中心的重症监护医学教授、该文的通讯作者Alexander Vlaar将相关事宜交给了所在机构的新闻发言人Edith Verheul。对于此事,他在邮件中表示:“文章内容是原创的,AI的使用也在出版商允许范围内。编辑和出版商的撤稿声明中也说明了,这是在规范之内使用AI导致的格式错误。对于这些错误,更合适的处理方法是发布更正声明,但编辑委员会指出文章未正确遵循同行评审流程,并因此做出了撤稿决定,这部分已经超出了作者所能决定的范围。”
该期刊的作者指南确实明确规定,允许使用大语言模型进行文字润色,但同时也指出作者须对内容负最终责任:
出于“AI辅助文字润色”目的而使用大语言模型/其他AI工具,无需特别声明。“AI辅助文字润色”定义为:对人类生成的文本进行可读性和风格改进,优化语法、拼写、标点符号和语气等。此类优化可能包括对文本的措辞和格式进行调整,但不包括生成性编辑和自主内容创作。在任何情况下,都必须有人为最终版本的文本负责,且需所有作者同意这些修改,反映其原创工作。
过去我们报道了一些案例,因虚假文献(通常由AI生成)被撤稿:
文章整理自:https://retractionwatch.com/2026/01/28/medical-journal-publishes-a-paper-on-ai-with-a-fake-reference-to-itself/-134026
热门跟贴