小学三年级,为了拿到一台任天堂游戏机,我被迫啃完800页的《乔布斯传》。四年后交苹果公司的作业报告,我却偷偷打开了韩国维基百科。这件事让我困惑了很久:为什么800页的书,能被一个百科词条替代?
从游戏机到提示词
作者小时候的经历藏着一条暗线。六年前,父亲用Switch做诱饵,让他读完那本砖头厚的传记。800页,六个月,对一个三年级学生来说是"brutal lift"(残酷的重负)。四年后中学作业,他直接搜了Namuwiki——韩国学生常用的轻量百科,专门用来"quick skim"(快速扫读)。
这个转变的关键在于:作业不需要知道乔布斯花了40小时研究窗口重叠技术,也不需要苹果早期的琐碎细节。Namuwiki就是《乔布斯传》的压缩版,剥离冗余,保留骨架。
作者把这个发现迁移到了提示词工程。他提出的核心概念叫"Token Deadbeats"——那些占用token却不产生价值的冗余信息。处理它们的方法,就是压缩。
第一层:同层重复
压缩的第一把刀砍向"same-layer duplication"(同层重复)。
作者举的例子很直白:"cold and cool ice cream"(冰冷又凉爽的冰淇淋)应该压缩成"cool ice cream";"hot and warm water"(滚烫又温热的水)变成"warm water"。两个词描述同一层温度感受,留一个就够了。
这种重复在口语里常见,在提示词里却是token杀手。大语言模型按token计费,每一个重复形容词都在白烧钱。
更隐蔽的是句子级别的重复。一段话里如果有两句意思相同,删掉一句。这不是损失信息,是去除噪音。
第二层:过度修饰
第二把刀对准"fussy add-ons"(繁琐的附加说明)。
作者用买牛仔裤打比方。正常人说"出去买条牛仔裤",没人会说"出去买一条直筒版型、赤耳丹宁材质的牛仔裤"——除非你是"mutant nerds"(变异极客),作者自嘲地把自己归入此类。
但附加信息并非一律砍掉。如果顺路还要买辣炒年糕(tteokbokki),这件事和买牛仔裤同等重要,那就该说"出去买牛仔裤,吃完辣炒年糕回来"。
判断标准是:这个修饰是否改变了核心动作?赤耳丹宁不改变"买牛仔裤"的本质,但"吃完辣炒年糕回来"改变了行程结构。
提示词的压缩实操
作者把这套方法总结为逐句处理:先在词汇层面去除同层重复,再控制过度生长的修饰句。
他留下一个待办:让读者复制一段提示词,自己压缩一遍。文末标注了测试环境——"GPT 5.4 Pro or above"。这个数字很具体,不是模糊的"最新版GPT"。
原文里还散落着一些系统残留:关于模板功能的说明、隐藏评论的确认弹窗、举报滥用的提示。这些是发布平台的界面元素,不是文章主体,但说明这段文字可能来自某个内容管理系统或论坛帖子。
为什么这件事值得技术人关注
提示词压缩不是写作技巧,是成本控制。大模型API按token计价,冗余就是真金白银。但比省钱更深一层的是认知效率——压缩迫使你想清楚:我到底想让它做什么?
那个为了Switch读传记的小学生,和用Namuwiki赶作业的中学生,中间隔了四年。四年里他学会了一件事:信息的价值取决于使用场景。800页的传记不会消失,但作业只需要其中5%的骨架。
提示词工程正在经历同样的分化。有人写小作文式的提示词,有人写电报式的指令。后者省下的不只是token,是模型理解你的路径长度。
作者最后没给压缩后的示例,只留了一个动作指令。这本身也是一种压缩:相信读者能自己走完最后一步。
毕竟,他三年级就能为了游戏机啃完800页。你也行。
热门跟贴