去年8月,《卫报》发了一篇书评。今年1月,《纽约时报》发了另一篇。两本书评讲的是同一本小说,作者不同,出版社不同,但有几段话读起来像双胞胎。
读者发现了。报社调查了。结果让人无语:写《纽约时报》这篇的,是个出过6本小说的资深作家,他承认用了AI工具"协助"写作,却没发现AI直接帮他搬运了竞争对手的稿子。
这不是AI第一次闯祸,但可能是第一次以如此尴尬的方式——抄作业抄到了隔壁班老师眼皮底下。
事件还原:一条读者留言引发的调查
事情始于一位眼尖的读者。他在读完《纽约时报》1月份的书评后,觉得某些描述似曾相识。翻回去一查,《卫报》去年8月就有过几乎一样的段落。
两篇文章都在评法国作家Jean-Baptiste Andrea的小说《Watching Over Her》。问题出在一段配角描写上。
《卫报》原文Christobel Kent写道:"But the novel is also rich in smaller characters, from the lazy Machiavellian Stefano to hardworking Vittorio, whose otherworldly twin brother Emmanuele is prone to speaking in tongues and dressing up in ragtag begged-and-borrowed uniforms…"
《纽约时报》Alex Preston的版本:"The novel is also rich in secondary characters, from the lazy, Machiavellian Stefano to Mimo's childhood friend and fellow craftsman Vittorio and Vittorio's otherworldly twin, Emanuele, who speaks in tongues and dresses in scavenged uniforms"
人物名字一样,形容词换了近义词,句子结构像复制粘贴后做了同义词替换。这种"洗稿"痕迹,传统人工操作反而不会这么明显——人知道要躲,AI只知道"生成流畅的文本"。
当事人回应:"巨大的尴尬"
Preston在给《卫报》的声明里说,他"hugely embarrassed",承认"made a serious mistake"。
调查结束后,《纽约时报》在3月30日加了编辑注,确认Preston此前为报社写的其他书评没问题,但这次确实用了AI工具,且没发现AI产出的内容与《卫报》文章雷同。
报社发言人对The Wrap的表态很硬:"For staff journalists and freelance writers alike, reliance on AI and inclusion of unattributed work by another writer is a serious violation of The Times's integrity and fundamental journalistic standards."
翻译成人话:不管你是正式员工还是 freelancer,用AI还抄别人,都是踩红线。Preston的合作关系就此终止。
资深作家为何翻车?
这件事的讽刺之处在于Preston的资历。6本小说,常年给《纽约时报》《卫报》《金融时报》供稿,不是新手蹭流量,是正经靠写字吃饭的人。
但恰恰是老手更容易栽在这种地方。新人写稿战战兢兢,每个引用都标注;老手有路径依赖,觉得"我就是快速生成个框架,再自己改改"。AI工具承诺的效率,对 deadline 压力大的人来说,诱惑很难抵抗。
问题在于,生成式AI(Generative AI,基于概率预测下一个词的技术)的"幻觉"不只是编造事实,还包括"合理但错误"的缝合——把训练数据里的片段重新组装,读起来通顺,来源却混杂不清。
Preston说他"failed to spot the sections",意思是查重环节缺失。传统编辑流程里,编辑会质疑"这段你从哪里来的";AI辅助写作时,这个质疑环节被跳过了——作者和编辑都默认"这是他写的"。
行业连锁反应
《纽约时报》对AI的态度一直微妙。一方面,它正在起诉OpenAI和微软,指控对方用其文章训练模型,侵犯版权;另一方面,它自己也在内部探索AI工具的应用边界。
这次事件给所有媒体划了条实操红线:你可以研究AI,但不能让AI替你写,更不能让AI替你抄。
更深层的问题是,书评这种文体本身就在萎缩。报纸缩减文化版面,专职书评人减少,freelancer 接活更赶,单价更低。效率压力之下,"用AI辅助"和"用AI代写"的边界,对个体来说越来越模糊。
Preston的个案被公开处理,有杀鸡儆猴的意味。但真正的难题是:如果AI生成的内容越来越难以识别,编辑流程要怎么改?每篇稿子都过一遍查重软件?还是干脆禁止所有AI辅助?
《纽约时报》选择了最严厉的一种回应:零信任,直接切割。
接下来,其他媒体会跟吗?以及,那些没有被读者发现的"相似段落",现在还在多少篇文章里躺着?
热门跟贴