去年有个数据:GitHub Copilot用户平均每周节省55分钟编码时间。但另一组数据很少被提起——同一批用户里,43%的人表示"AI生成的代码需要大量返工"。
省下的时间,又花在了修BUG上。这不是工具的问题,是使用方法的问题。
把AI当聪明实习生,是大多数人的起手式
作者Ethan Mollick在Wharton商学院带团队做AI实验时,观察到一个反复出现的模式。新手第一次用AI编码助手,会花大量时间打磨提示词(prompt)——写得更长、更结构化、更"专业"。
有时输出完美。有时同样的问题,换个时间问,答案跑偏。
同一套代码库,同一个目标,不同结果。这种不稳定让Mollick意识到:瓶颈不是模型智商,是上下文(context)。
他早期的做法,是把AI当成"记忆力很差的自由职业者"。丢一个任务过去,指望一段精心写的指令能撑完整轮对话。但真实工作里,设计规范重要、SEO规则重要、内容结构重要、本地化惯例重要、早期的小决策也重要。
一段提示词扛不住这些。这不是提示工程(prompt engineering)能解决的。
Agentic工程的本质:不是对话,是环境设计
Mollick后来换了个思路。他不再让AI"建一个网站",而是设计一套系统:
把模型当引擎,技能(skills)是熟练动作,MCP(模型上下文协议)是对外接口,AGENTS.md是项目手册。四层结构,缺一不可。
技能(skills)解决的是"怎么思考"。它把可重复的专业判断打包,让AI能复用。提示词是临时的,技能是积累的。没有技能,成功取决于"关键时刻有没有想起那句魔法咒语";有了技能,一次性聪明变成基础设施。
MCP解决的是"能做什么"。这个开放标准让模型连接外部系统——数据库、API、文件系统。模型懂模式,MCP让它触碰现实。没有MCP,AI在隔离环境里推理;有了MCP,建议变成执行。
AGENTS.md解决的是"记得什么"。它是给AI看的README,但比普通README更脏、更实操——记录技术债、记录哪些方案试过但废弃、记录"这个组件别碰,上次改完崩了"。
Mollick的团队在一份AGENTS.md里写过:"不要用本地图片,全部走CDN;字体加载用swap策略;那个渐变效果客户说像2003年的PowerPoint,别用。"
没有这份文档,AI每次都要重新"发现"项目。有了它,AI从更高的基线起步。
为什么这套框架现在才成型
2023年到2024年初,行业焦点是模型能力——参数规模、上下文窗口、推理速度。但Mollick指出,当生成变得廉价,差异化向上转移:判断力、约束条件、系统思维。
这个判断和Anthropic CEO Dario Amodei的观点形成呼应。Amodei在2024年底的一次访谈里说,AI产品的护城河不在模型本身,在"围绕模型建立的系统"。
GitHub的Copilot团队也有类似观察。他们内部把AI辅助编码分为三个阶段:第一阶段是"自动补全",第二阶段是"聊天式协助",第三阶段是"代理式执行"(agentic execution)。目前大多数用户卡在第二阶段,因为缺少技能层和记忆层的设计。
Mollick的框架提供了一个迁移路径。他不是在否定提示工程,而是把它降级为系统的一个组件。就像开车时,油门重要,但发动机、变速箱、导航系统的配合更重要。
一个被低估的细节:AGENTS.md的"脏数据"
技术文档通常追求整洁、通用、可维护。但AGENTS.md故意反着来。
Mollick记录的内容包括:废弃方案及其原因、客户的奇怪偏好、技术债的具体位置、"这个文件看起来很乱但别重构,下个月要重写"。
这些信息不会出现在正式文档里,但对AI执行任务至关重要。它们代表了项目的"操作现实"(operational reality),而非"设计理想"。
一个有趣的对比:传统软件工程追求"单一事实来源"(single source of truth),而Agentic工程接受"多版本真相"——给AI看的AGENTS.md、给人看的README、给运维看的Runbook,可以不同步,只要各自服务于自己的读者。
这种分裂听起来不优雅,但Mollick认为,追求优雅本身就是 premature optimization(过早优化)。在AI能力快速迭代的阶段,系统设计的核心指标是"稳定输出",而非"理论完美"。
Mollick最近在一个工作流里测试了这套框架。任务是给一个内容网站做本地化,目标语言12种。以前的做法是写一段详细提示词,让AI批量处理;现在的做法是先定义技能("如何识别需要本地化的字符串")、配置MCP(连接翻译记忆库和CMS)、维护AGENTS.md(记录"德语标题要短30%,阿拉伯语从右向左,日语敬语规则看附件")。
结果:返工率从35%降到7%,且AI开始主动提出优化建议——比如"检测到重复翻译,建议统一术语库"。
这不是模型变聪明了。是上下文变厚了。
热门跟贴