打开网易新闻 查看精彩图片

自媒体工作室老板又来找我吐槽了:

你给我定制的指令,之前用的好好的,怎么最近出来的东西,感觉越来越不对劲了?文章出来结构都一样,字数也开始偷工减料了?

我跟他说:这是一个叫做"指令漂移"的现象,是大型语言模型长期使用同一个高精度指令后必然出现的结果。

不理解这个机制,你改指令,改到天荒地老都改不对地方。

语言模型在生成文本时,本质上是在做概率计算,每一个词都是在找当前上下文下"概率最高的那个选项"。

一个设计严密的指令,初期用起来效果好,恰恰是因为它把模型的概率分布限定在了一个高质量的区间里。

但用久了,模型会把这个指令的结构模式变成它的默认路径。

于是每次走同一条路,写出同一种骨架,这就是指令漂移的底层机制。

指令漂移有三个具体症状:

1)结构固化,起承转合都太像了;

2)词汇贫乏,总是那几个"犀利词"反复出现;

3)伪随机失效,原本设计的"每次换一种策略"的计数器逻辑完全不起作用。

因为AI在不同会话之间没有记忆,它根本不知道"上一次用了什么",每次都选默认的第一个策略,计数器是一个感动了自己却骗不了模型的设计。

我跟工作室客户说,这个指令到了需要动手术的时候了。

以下四步优化逻辑,是我针对指令漂移的定制解法。

1、废除虚拟计数器,改为随机种子注入

指令里的计数器逻辑是一个设计上的误区,AI无法跨会话记忆,永远掉入同一个"概率最高路径",这是模型机制决定的,不是调参能改的。

真正有效的随机性,要靠指令本身来制造。

比如让AI基于"当前输入内容的字数奇偶性"来选择叙事框架,或者在指令里明确写"本次从以下三种策略中随机抽取一种"。

把随机性设计成指令逻辑的一部分,而不是依赖AI自发产生随机行为,这是两件本质不同的事。

2、打破单一结构,建立叙事框架池

给AI一个框架,它就会把这个框架用到底,用到文章读起来像在对号入座,这是单一结构导致固化的直接路径。

解法是在指令里预设三种截然不同的叙事框架,比如"悬疑回溯法"(从反常结果倒推原因)、"平行时空法"(用历史某年的相似场景做对照)、"账本清算法"(只算微观账,不算宏观账)。

三种结构的逻辑起点完全不同,即使写同一个话题,出来的文章骨架也是三种味道。

我在优化头条娱乐爆文指令时,也是用这个逻辑来解决通过率下滑的问题,要求叙事起点轮换使用、固定结构不超过两篇连用。

之后文章的面貌丰富了很多,朱雀识别不出固定模板,通过率稳定回升。

3、句式控制从"铁律"改为"呼吸感比例"

强制每句话xxx字以内,是很多人设计指令时的常见操作。

初期有效,但用久了会出现一个反效果:

文章产生明显的"AI断句感",句句等长,句句停顿,读起来像机器人在切菜,这种节奏本身就会被平台算法识别为非自然语言。

更合理的设计是"长、短句比例控制",比如:70%的句子短促有力,30%的句子允许铺陈积蓄情绪。

用短句释放观点和结论,用长句描述细节,这种节奏才有呼吸感,才像一个人在说话。

我在财经爆文指令的连接词管控里,也是同一个逻辑:

不是完全禁止某类连接词,而是限定频率和结构,禁止同一段里出现两次相同的连接词,让逻辑链有变化,有弹性,不用死规则限制,而是用活的比例给予AI适度的发挥空间。

4、增加思维链预处理,强制反直觉角度

AI直接写容易复述事实,文章稳健但没有棱角,而读者真正记住的,往往是让他们"没想到"的那个观点。

我在指令里增加一个后台执行的深度思考步骤,强制AI在写正文之前,先找出这个话题下大众的第一反应,然后提出与之相反或更深一层的观点,再选最冷门的角度切入。

这个步骤不出现在正文里,但它决定了文章的观点质量,是让文章从"信息传递"升级到"认知刺激"的关键一刀。

同时在这个步骤里,要求AI找一个具体的"微观切口",不要宏大叙事。

比如:把"通胀"具象化为"早餐铺油条的价格",把"汇率"具象化为"留学家庭的账单"。

泛财经类的文章一旦落进微观场景,AI味就消掉大半。

优化之后,我持续跟进了几个工作室客户的数据,反馈普遍是文章结构感变丰富了,推流也逐渐变稳定了。

但有一件事要说清楚:指令漂移不是一次性的问题,它是LLM机制决定的宿命,优化之后三个月,新的收敛还会出现,这不是失败,这是正常的。

持续不断地打磨指令,本来就是工作室内容生产的一部分,不是额外的麻烦,是这门生意里必要的维护成本。

这一点,做工作室的老板朋友们一定要想明白。