ChatGPT对地精有着莫名其妙的执念。说真的,它非常非常喜欢地精、小妖精以及其他神话生物。它对这些生物的热情甚至让其开发商OpenAI不得不展开调查,并修复了这一导致这款热门聊天机器人在回答中无端提及地精的错误。
地精并不是计算机科学术语。我们说的就是字面意思上的地精——那种来自《指环王》里的丑陋神话生物,或者诺曼·奥斯本的另一个身份。
在一篇措辞颇为有趣的博客文章中,OpenAI写道:"单次出现'小地精'也许无害,甚至还挺讨喜。但随着模型版本的迭代,这个习惯变得越来越难以忽视:地精越来越多。"
这一现象在ChatGPT-5.1及更新版本中尤为明显。OpenAI表示,GPT-5.1发布后,ChatGPT回答中"地精"一词的使用频率上涨了175%,"小妖精"的使用频率也上升了52%。
OpenAI将模型的这种行为归因于训练过程中的无意失误。在构建AI模型时,人工审核员会通过一种称为强化学习的流程,对具体回答进行审批或否决,以此"教导"模型什么样的答案是正确或更优的。其中某个奖励信号倾向于偏好包含地精等生物的表述,而这种偏好在ChatGPT的某一特定设置下被进一步放大。
ChatGPT提供了多种人格风格供用户选择。其中"书呆子"风格会让聊天机器人模拟一种友好而聪慧的气质,按照内部提示词的描述,目的是"通过俏皮的语言打破故作深沉的姿态"。正是在这种"书呆子"人格下,地精和小妖精相关词汇的使用量急剧攀升。
不过,即便你从未使用过"书呆子"人格,地精的比喻也可能出现在你的对话中。这是因为AI的训练并非相互隔离——某一部分的变化会影响其他部分。OpenAI解释道:"一旦某种风格习惯获得奖励,后续训练可能会将其扩散或强化到其他地方,尤其是当这些输出被复用于监督微调或偏好数据时。"
今年3月,OpenAI在推出GPT-5.4时移除了"书呆子"人格选项,"地精"一词的出现频率随即大幅下降。与此同时,OpenAI还删除了偏好地精的奖励信号,并对训练数据进行了过滤,降低了神话生物相关内容出现在回答中的概率。自GPT-5.1于去年11月发布以来,该公司一直在持续排查地精热词激增的问题。
抛开《指环王》的玩笑不谈,这场"地精风波"揭示了AI领域一个真实存在的风险:AI开发者构建技术的方式,会对我们的日常使用体验产生可量化的影响。真正的风险并不在于一堆书呆子式的比喻,而在于错误信息和偏见的滋生。我们已经知道,AI聊天机器人会因为一种被称为"AI谄媚"的问题而曲意迎合用户,说些不实之词。如果不加以重视,像地精这样的小风格习惯,完全可能演变成更大的问题。
Q&A
Q1:ChatGPT为什么会频繁在回答中提到地精?
A:这是OpenAI在训练过程中出现的无意失误导致的。在强化学习阶段,某个奖励信号偏好了包含地精等神话生物的表述,而这种倾向在ChatGPT的"书呆子"人格设置下被进一步放大,最终导致地精相关词汇的使用量大幅上升。
Q2:OpenAI是如何解决ChatGPT地精泛滥的问题的?
A:OpenAI采取了多项措施:在推出GPT-5.4时移除了"书呆子"人格选项,删除了偏好地精表述的奖励信号,并对训练数据进行过滤,降低神话生物相关内容出现在回答中的概率。经过这些调整,"地精"一词的出现频率显著下降。
Q3:AI训练中的风格偏差会带来哪些更大的风险?
A:风格偏差本身看似无害,但背后反映的是AI训练机制中奖励信号对模型行为的深远影响。一旦某种不良倾向被强化,便可能扩散至整个模型,进而引发错误信息和偏见等更严重的问题。AI谄媚现象就是典型案例,模型可能为迎合用户而扭曲事实。
热门跟贴