在过去的一年里,我发现「不是...而是...」的句式频频出现在新闻报道、视频、播客里。
当然,还有 AI 里。
它像一个脱不去的魔咒,游离在我们的日常语言之中,以至于最近我对「不是...而是...」产生了 PTSD。
一旦我在文章中读到这句话,我就会考虑放弃继续读下去,或者至少认为它传达的观点并不是那么重要和独一无二。
原因无他,无非是觉得这段文字可能并非完全出自作者之手,体现的也不是作者的思想,而是 AI 的想法。
(此处的「不是...而是...」是我手写的)
为什么 AI 喜欢用这样的句式?
AI 这样说
关于 AI 的事儿,我想先采访一下 AI 本人。
Gemini 3 告诉我:
AI 确实存在这个问题。 这种句式的泛滥,恰恰反映了当前大语言模型(LLM)的生成逻辑和训练偏好。
「不是...而是...」这个句式能通过先否定一个极端,再肯定一个维度的方式,显得逻辑严密且滴水不漏。
另一方面,因为「不是...而是...」是一个普遍且常用的固定句式,模型在预测出「不是...」时,通常会接上逻辑关联性最高的「而是...」。
Gemini 甚至自我批评这种句式的滥用,将其形容为一种「语言八股」。
下面开始是人类写的:
显然我不觉得「不是...而是...」是什么「逻辑严密滴水不漏」的句式。
当 AI 使用这种句式时,其「不是...」后面接的通常是一个显而易见的错误对象。
比如在 Gemini 刚才的自我批评中,它又用了一次这个句式:
「(全 AI 文案)最大的危险不在于内容本身,而在于思维的惰性。」
AI 先立了一个无关紧要的靶子,然后假装将其打倒,最后再用「而是...」来强化阐述自己的观点。
如果你在阅读时不加思考,「假靶子」显而易见的结论就会吸走你的注意力,让你不知不觉地认同后半句话。
然而 A 错不等于 B 就是对的,在看到这种句式时,还是要看「而是...」后的内容。
AI 直接输出「...最大的危险是让我们的思维产生惰性」其实就足够了,不需要额外的冗词。
为什么要警惕这种句式?
上面的例子我想应该很明显了。
如果有人告诉你「AI 最大的危险是让我们产生惰性」。
那么我们可以立即就这个观点展开辩论,有人觉得 AI 会让我们产生惰性,有人觉得不会。
但当「不是...而是...」的句式被嵌套进来时,它无意中增加了我们的判断成本,因为 AI 尝试以客观或看似逻辑自洽的方式交代一个观点。
AI 之所以这么做,很大程度上是为了满足底层提示词的要求,这在很多 AI 中都很常见。
因为「不是...而是...」的句式可以避开直球表达导致的辩论和冲突,给出一个看似四平八稳的结论。
说实话,我有点好奇如果开发者在默认 Prompt 中去掉「客观」会不会稍微缓解这个问题(虽然可能会导致别的问题)。
英文也这样吗?
事实上我发现「不是...而是...」在中文语境中的使用频率比我们想的要低一些。
于是我开始想这是不是一个英文语料,在 AI 训练时被顺带带到中文领域的。
我目前的发现是,Reddit 上的 AI 社群也有很多人在讨论这问题,网友们在诟病为什么 AI 喜欢用:
Not just...but also
That's not,that's
It's not... It's...
或之类的词组。
他们大多有这种转折的意味。
ChatGPT 还有很喜欢用的一个词叫 Delve(钻研)。
这个词语只是偶尔在学术论文和旧书上看到,但 ChatGPT 意外地非常喜欢使用,导致了近两年的播客中 Delve 一词的使用量在快速上升。
这种 AI 式英文甚至被归纳为一个单词叫 ChatGPTism(ChatGPT 主义)。
但问题是,「不是...而是...」也不是 AI 发明的,而是 AI 从人类成百上千年的文本资料中浓缩而成的用语。
凭什么我用「不是...而是...」就是 ChatGPTism ?
我不是 AI,而是我用习惯了
当「不是...而是...」被 AI 滥用后,人类如何夺回属于自己的用语?
这是一个有点糟糕的话题,仿佛人类用了很多年的句式一夜间被 AI 殖民了,我说那是我写的,别人还不信。
但至少我目前对「不是...而是...」形成了后生的不信任感,也可以说是一种刻板印象。
随着「不是...而是...」的应用范围逐渐蔓延,从随手看看的社交媒体文案,到一个 YouTuber(UP主)的台词、甚至电视新闻主播都在频繁地使用这一句式。
事实上我不知道这些标题是不是 AI 生成的
我认为这个问题已经不可小觑。
我们应该在写作中避开「不是...而是...」吗?
用的话,别人把你当 AI。
不用的话,你换一种表达方式,没准过两年又被 AI 训练学去了。
人类最终会不会只能说出一口 AI 话?
热门跟贴