去年有个挺典型的场景:一位工程师对着Claude调了整整两周提示词,输出看起来完美无缺——语气专业、结构工整、自信满满。结果一查事实,全错。这不是模型的问题,是他思考问题的方式出了问题。

这位工程师在谷歌负责AI基础设施,之前和大多数人一样,坚信"提示工程万能论"。系统表现不好?加指令、调格式、堆示例、换措辞,总有一款能搞定。这套方法确实管用过足够多次,让人误以为它是底层规律。

直到它彻底失效。他在博客里说:「答案看起来完美,但它仍然是错的。那一刻,问题不在模型,不在提示,在我思考AI系统的方式本身裂开了。」

转折点发生在处理知识图谱时。他发现把数据预处理成图结构——节点、边、关系网络——比打磨提示词有效十倍。同样的问题,图算法能定位到模型"幻觉"的根源:不是生成环节出错,是检索环节抓错了信息节点。

现在他的团队已经把图算法写进了RAG pipeline的默认配置。提示工程没死,只是从"主菜"变成了"调味品"——放少了没味道,放多了掩盖食材本身的问题。一位读者在这条博客下留言:"调了三个月提示词,不如重构一天数据关系。"