打开网易新闻 查看精彩图片

最近,《Surfaces and interfaces》(材料类一区,IF=6.2)上一篇题为“The three-dimensional porous mesh structure of Cu-based metal-organic-framework - aramid cellulose separator enhances the electrochemical performance of lithium metal anode batteries”的论文引起了广泛关注。

打开网易新闻 查看精彩图片

引发关注的原因不是因为内容上极具创新性研究,而是因为该作者使用AI写作。

文章本身没啥大问题,但在Introduction的第一句话“Certainly, here is a possible introduction for your topic!”,让人啼笑皆非。

如果你经常与ChatGPT交流,你会注意到它的回复总是彬彬有礼,这一点让人印象深刻,而该论文“Introduction”首句为“Certainly, here is a possible introduction for your topic”(这是你的主题可以考虑的引言),很显然这句话符合人工智能撰写的习惯,因此,很显然,这句话是由人工智能写的。

毫无疑问,作者在复制粘贴ChatGPT或其他AI工具生成的内容时,忘记删除了,才导致出现在论文中。

打开网易新闻 查看精彩图片

显然,这篇文章不符合学术规范。

不过最令人震惊的是该篇文章是如何发表出来的。为什么没有一个作者或者审稿的同行注意到...

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

要知道,一篇文章要发表在期刊上,除了作者本人要经过多次缜密的检查校对外,还需要面对严厉的同行评审,即使这些过程都完成了,论文在提交后,学术期刊的编辑需要审核后才发布。

在这样严格的层层把关下,却没有一个人看出AI撰写痕迹。犯下这种低级错误是不应该的,期刊编辑、审稿人、副主编难逃其责。

因此有人推测,这篇文章可能是由AI负责同行审核。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

爆出这个消息后,学术界炸了。因为这篇论文发表的刊物来自一家信誉相对良好的国际学术出版机构Elsevier,它在1880年成立,曾经出版包括《柳叶刀》、《四面体》和《细胞》等学术期刊,以及ScienceDirect电子期刊集,“趋势”(Trends)系列和“新见”(Current Opinion)系列期刊,因为期刊上的文章大多经过同行评审,因此在业内被认定为可靠的学术资源。

有人将文章的“Introduction”部分进行了“AI生成检测”,发现该“Introduction”很可能是由AI生成的!

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

使用AI进行润色我们可以理解,可是这直接复制可还行?到底是审稿人的粗心还是作者的故意行为?

截至目前,该文认可在Surfaces and Interfaces查询到,期刊和Elsevier均未对此做出回应。大家可前去瞻仰一下。(sciencedirect.com/science/article/pii/S2468023024002402)

类似的情况不止一例:

最近《Radiology Case Reports》发表的一篇《Successful management of an Iatrogenic portal vein and hepatic artery injury in a 4-month-old female patient: A case report and literature review》文章也出现了AI生成的内容。

打开网易新闻 查看精彩图片

其位置是在Discussion的最后部分,竟然出现了一大段“AI的忏悔”:

“I'm very sorry, but I don't have access to real-time information or patient-specific data, as I am an AI language model. I can provide general information about managing hepatic artery…”,估计也是作者忘记删除了。

打开网易新闻 查看精彩图片

一个月前,科学界出现的史上最“短命”的学术文章,Frontiers in Cell and Developmental Biology上发表的Cellular functions of spermatogonial stem cells in relation to JAK/STAT signaling pathway,上线三天就立马被撤稿,原因就在于这篇文章中的图,瞎子都能一眼看出是AI生成的。在整个审稿过程中,编辑和两位审稿专家都未发现图片问题,着实让人摸不着头脑。

打开网易新闻 查看精彩图片

不得不感叹,AI崛起了,某些科研人员的脑子似乎也停转了……

GPT能不能用于辅助论文撰写呢?

自从2022年末,ChatGPT的横空出世,AI就迎来了新的一波浪潮和发展机遇。随着AI的发展,现在不管是计算机行业还是科研界,用AI工具辅助工作的现象越来越普及了。

对于内容创作者来说,AI无疑帮助他们提高了工作的效率,其中不少人用AI来论色甚至撰写文章。

最初的时候,学术界对于ChatGPT是严格反对的,例如Science期刊明令禁止不允许在论文中使用ChatGPT或其他AI工具生成的文本和图像。

但去年11月,Science期刊明显展现了其宽容和大度,做出了一定程度退步。

最新的投稿政策中规定:

◆ AI不得被列为作者或共同作者,论文引用的资料来源,其作者或共同作者也不能有AI。

◆ 如果作者将AI辅助技术作为其研究的组成部分或使用AI辅助论文撰写,需要在Cover letter和论文致谢部分注明。作者应在研究方法部分披露详细信息:对AI使用过的完整提示词、AI工具及其版本。

◆ 作者应对文章的准确性负责,确保没有抄袭行为,并仔细审查论文以防止AI引入偏倚。

◆ 未经编辑明确许可,Science期刊不允许作者在文章中使用AI生成的图像和其他多媒体内容,专门讨论AI和/或机器学习的相关文章除外。

◆ 由于使用AI技术可能会破坏稿件机密性,审稿人不得在生成或撰写审稿意见时使用AI。由此可见,以Science为代表的目前学术界,更多地将ChatGPT等AI视作一种辅助写作的文本整理工具或是一种新型搜索工具,对AI产生的内容非常慎重。

打开网易新闻 查看精彩图片

另外,Elsevier和Springer Nature在内的许多出版商都表示:可以用,声明即可。

此前,就有美国田纳西大学一名放射科医生Som Biswas,在4个月内使用ChatGPT写了16篇论文,并在4个不同的期刊上发表了5篇。

当他第一次提交论文时,就跟编辑坦言:你看到的所有内容都是AI写的。结果就在几天后,这篇论文通过同行评审,并在杂志Radiology上发表。于是在这之后一发不可收拾,写的论文也并不局限于放射学专业,包括教育、农业、法律等。

不过话说回来,AI可以帮助学者快速筛选和分析大量文献资料,节省时间,提高研究效率,使用ChatGPT进行润色和研究是没有问题的,但是一定要合理使用,尤其在发文章的时候,多多检查,毕竟作者对论文的内容负有最终责任。

工具只能起到辅助的作用,如果对AI生成的结果不加修饰和思考的采用,是完全不负责任的行为。此外,过度依赖AI很可能导致独立思考和创新能力下降,AI系统的偏差也可能影响研究结论。

同时也要提醒大家在使用相关AI工具可能会被滥用或者成为“学术造假”的工具,产生一系列诸如著作权归属、学术不端、数据和隐私保护、内容虚假等问题。

总的来说,越来越多人应用ChatGPT来辅助自己完成论文写作。但人工智能毕竟是人工智能,大家也不要对ChatGPT产生依赖。个人感觉用Chat GPT润色一下语言和语法还是可以的,不建议直接用Chat GPT生产内容,这可能会产生很多误区和错误(尤其是免费的3.5)。

总之,AI为学术研究带来了新的机遇,但同时也带来了新的挑战。

来源:中洪博元生物