全球最大的学术预印本平台,对AI生成内容亮出了红牌。
arXiv计算机科学板块主席托马斯·G·迪特里希近日宣布,平台将收紧AI生成内容规则。根据新规,无论论文如何生成,作者必须对内容承担全部责任。一旦出现明确证据表明作者未核查大语言模型生成的内容,将被禁投一年。禁令结束后,新论文必须先通过同行评审才能提交。
打开网易新闻 查看精彩图片
哪些痕迹会被抓包?迪特里希给出了具体例子:虚构的参考文献、模型残留的元评论——比如论文里留着"这里是一段200字摘要"这类提示,都会成为执法依据。
这项规则在学界引发分歧。部分研究人员公开支持,认为能遏制AI滥发;也有人担忧执行层面会打折扣,甚至担心有人通过虚假添加共同作者来钻空子。
收紧并非突然。六个月前,arXiv已要求计算机科学综述论文必须经过同行评审。而《日本经济新闻》此前的调查更揭示了问题的隐蔽性:他们在17篇预印本中发现隐藏提示语,如"只给正面评价"——这类痕迹往往是操纵AI审稿工具的特征。
从综述强制审稿,到AI内容核查追责,arXiv的防线正在层层加码。核心逻辑始终没变:工具可以用,但责任必须有人扛。
热门跟贴