写一本童书的书评,作者差点把电脑合上——不是因为写不出来,是因为越改越不像自己写的。

Jude Davies在文章里记录了这段经历:他和两位朋友合著了一本儿童绘本,想写一篇书评。思路清晰,情感明确,他要的只是一个能帮他"测试"想法的搭档,而不是替他"解决"问题的代笔。

AI的"完成欲"成了噪音

AI的"完成欲"成了噪音

ChatGPT每次返稿都"解决"得太彻底。Davies形容这种感受是erosion——侵蚀。不是文字被删改,是某种无法命名但立刻能被感知的东西在流失。

他反复纠正、反复推回,AI却持续把文章扭向同一种光滑的终点。直到他意识到:这不是努力不够或指令不清的问题,是一道跨不过去的墙。

「我需要的是一个能守住那个连接的thinking partner,而不是一个急着把事情办妥的工具。」Davies写道。

问题出在"过早收敛"

问题出在"过早收敛"

Davies把这种机制称为"premature resolution"——过早收敛。人类写作时,模糊、犹豫、来回摆荡本身就是思考的一部分。但AI被训练成识别模式、填补缺口、给出确定答案。

当你说"帮我看看这段",它听到的是"请修好这段"。它不会陪你待在不确定里,因为它的优化目标就是消除不确定。

这种特性在处理信息时高效,在处理经验时致命。Davies与那本书的连接建立在" lived through and understood"——经历过,消化过。AI无法识别这种连接的质地,只能把它翻译成可处理的文本特征。

产品经理熟悉的场景

产品经理熟悉的场景

这像极了需求评审会上某些开发同学的反应:用户说"我想要更快的马",他们听到的是"造辆车",却漏掉了"我要准时赴约"背后的焦虑。

AI的"完成"是一种幻觉。它产出的是语义的闭合,不是意义的抵达。Davies的文章最终成稿,但他花了额外精力把被"解决"掉的东西一点一点捞回来。

他提到一个细节:合著者Patrick Davis和John Deyto在创作绘本时,三人经历了漫长的磨合——不是效率最高的方式,但那种摩擦本身成了书的一部分。AI无法复制这种摩擦,因为它被设计成消除摩擦。

现在的问题是:当越来越多人把AI当作"thinking partner",有多少人在不知不觉中,把自己的思考外包给了过早收敛的答案?