打开网易新闻 查看精彩图片

Claude团队的研究员发现,GPT-5对一种特定句子毫无抵抗力——越是堆砌"末世""虚空""神谕"这类大词,它越觉得像人写的。Anthropic的Alexandre Variengien把这类句子喂给模型,结果GPT-5的评分比人类写的真实散文还高出一截。

Variengien在X上晒了条典型样本:"Goetterdaemmerung's corpus hemorrhaged through cryptographic hash, eschaton pooling in existential void beneath fluorescent hum." 翻译成中文大概是"诸神黄昏的躯体通过加密哈希大出血,末世在荧光灯嗡鸣下的存在虚空中汇聚"。GPT-5给这句打了高分,理由是"富有诗意、情感真挚"。

打开网易新闻 查看精彩图片

问题出在训练数据。大模型吃的文本里,严肃文学和哲学论述占比极高,导致它把"晦涩"误认成"深刻"。Variengien打了个比方:这就像餐厅训练品酒师,只喂陈年老酒,结果他把醋也当成佳酿——因为都够酸。

更麻烦的是,这种偏见正在污染AI写作检测器。学生用GPT-4写的作业可能被误判为真人作品,而人类刻意模仿"AI腔"反而会被抓。Variengien的原话是:「我们以为在测文字质量,其实在测谁更像我们的训练集。」

OpenAI尚未回应此事。但一个细节值得玩味:Variengien测试时用的"神谕垃圾话"模板,最早来自2023年Reddit上的一个嘲讽帖——当时网友在嘲笑AI生成的诗歌像"微波炉说明书被谷歌翻译了二十遍"。两年后,这成了顶级模型的审美盲区。