凌晨两点,你盯着Postman里第47个接口测试,手指机械地复制粘贴返回值。旁边的Claude Code明明能写代码能跑测试,却对你的API苦力活视而不见——这不是AI的问题,是你还没教会它。
一个文件夹,终结重复劳动
开发者Divyank最近开源了一个工具,把"教AI用API"这件事压缩到了10秒。不是写提示词,不是每次会话重新解释——而是一次配置,永久生效。
核心概念叫「技能(Skill)」:一个包含SKILL.md说明文件的文件夹,外加可选的执行脚本。AI需要时自动加载,像调用本地函数一样调用API,不必每次都把整份文档塞进上下文窗口烧token。
这解决了最隐蔽的效率黑洞:你的AI助手能读代码能写测试,但每次新会话都要重新"学习"同一个API的认证方式、端点结构和错误处理。Divyank原话:「它重新读同样的文档,重新发现同样的端点,重新推理同样的认证模式——每一次。」
技能文件遵循Agent Skills开放标准,Claude Code能用,其他兼容代理也能用。不是某个产品的私货,而是可迁移的基础设施。
从4小时到10秒的魔法
Divyank写的api-skill-creator工具,本质是OpenAPI规范→AI技能的编译器。支持OpenAPI 3.x、Swagger 2.0、Postman集合,甚至纯HTML文档页面。纯本地运行,零外部API调用。
他拿Open-Meteo天气API演示——这是个免费、无需认证的接口,官方直接在GitHub放了openapi.yml。一行命令:
python create_skill.py --spec https://raw.githubusercontent.com/open-meteo/open-meteo/main/openapi.yml
输出目录里躺着三样东西:SKILL.md(AI的操作手册)、open_meteo_cli.py(可执行的Python命令行工具)、README.md(人类的使用指南)。SKILL.md按资源分组端点,自动检测认证需求(这里是"无"),从schema直接生成请求示例。
Divyank对比了前后成本:手工写一个API技能,4到6小时;用这个工具,10秒。不是优化,是数量级跳跃。
为什么"能读文档"不等于"会用API"
这里有个反直觉的点:现代AI确实能读API文档,但"能读"和"高效用"之间隔着巨大的token成本和认知摩擦。
每次会话重新解析文档,意味着:
• 上下文窗口被重复内容占满,留给实际任务的空间减少
• 推理时间增加,响应变慢
• 文档理解可能出现波动,同样的问题不同会话答案不一致
技能机制把"理解"变成了"记忆"。SKILL.md是预消化的结构化知识,脚本则是确定性的执行层。AI不再每次重新推理,而是直接调用已验证的工作流。
Divyank强调了这个区别:「技能不只是指令文件。技能加脚本,是可执行的工作流。」
这有点像人类工程师的工作习惯——你不会每次调接口都重新读一遍文档,而是有自己的snippet库、封装好的SDK、或者干脆写了个内部CLI工具。现在AI也能拥有同样的肌肉记忆。
开放标准的隐性价值
Agent Skills标准最值得玩味的地方在于"一次编写,多处运行"。不是绑定Claude Code的专属格式,而是跨代理兼容。
这意味着技能可以沉淀为团队资产,甚至社区共享。想象一个场景:你的公司用了某个小众SaaS,有人写好了技能文件,全团队直接复用;或者开源社区围绕主流API维护一套官方技能库,新项目的AI助手开箱即用地集成Stripe、Twilio、AWS。
Divyank的工具目前只生成Python CLI,但架构上是开放的。SKILL.md是标准格式,执行层可以是任何语言。理论上可以扩展出TypeScript版本、Go版本,甚至直接生成curl命令包。
更激进的想象:如果API提供商开始官方维护SKILL.md,就像现在维护SDK一样?用户的AI助手接入成本趋近于零,API的采用门槛被彻底 flatten。
从"AI辅助编程"到"AI运营基础设施"
这个工具指向一个更大的趋势:AI正在从"代码助手"进化为"运营基础设施的接口层"。
Divyank描述的场景很有代表性——Claude Code已经在做"真正的事":浏览代码库、写测试、运行命令。但运营流程(operational flows)还是人在做。这个断层说明,AI的渗透是从"创造"向"运维"延伸的,而后者往往被低估。
API调用是典型的运维型任务:重复、结构化、有明确输入输出,但散落在各种工具里。Postman、curl脚本、内部Dashboard、甚至Excel表格——人类用肌肉记忆和复制粘贴缝合这些工作流,AI却因为没有"持久化技能"而被排除在外。
api-skill-creator做的,是给AI一个进入运维层的标准化入口。不是用自然语言模糊地"帮我问一下天气",而是精确地、可复现地、可组合地调用服务。
这打开了新的自动化空间。比如:让AI定时检查API健康状态,异常时自动创建issue并@相关人;或者把多个API调用编排成业务工作流,AI作为调度器执行并报告结果。这些场景不需要更强的模型能力,只需要更清晰的"AI-API"接口定义。
工具链的拼图游戏
把api-skill-creator放在更大的技术图景里看,它填补了关键一块拼图。
左边是MCP(Model Context Protocol),解决AI与外部系统的实时连接问题;右边是各种代码生成工具,解决"写代码"的效率问题。中间缺的是:如何让AI稳定、高效、可复用地与特定API交互——不是临时起意的单次调用,而是纳入长期工作流的确定性操作。
Skills机制加上这个生成工具,本质上是在定义"AI时代的API集成规范"。人类工程师花几十年演化出了SDK、CLI、Terraform provider等抽象层,现在轮到AI需要自己的抽象层了。
Divyank的仓库现在只有基础功能,但架构很干净:解析器层处理多种输入格式,生成器层输出标准技能结构,执行层交给本地脚本。这意味着扩展路径清晰——支持更多API文档格式、生成更多语言绑定、甚至对接CI/CD流水线。
一个可能的演进方向:与MCP server生态打通。技能文件描述"这个API能做什么",MCP server提供"怎么实时连接",两者结合就是完整的AI-API集成方案。Divyank的工具可以前置为"从文档自动生成MCP server配置"的环节。
开发者体验的新战场
这个案例也揭示了AI时代开发者体验(DX)的竞争维度正在转移。
传统DX比拼的是文档质量、SDK完善度、控制台易用性。AI时代的DX要加上一条:你的API对AI助手有多友好?
Open-Meteo的例子很说明问题——它胜在"零摩擦":免费、无认证、openapi.yml直接放GitHub。这种设计让AI技能生成一气呵成。反观很多商业API,认证流程复杂、文档分散、没有机器可读规范,AI再强也束手无策。
可以预测,"AI可发现性"会成为API设计的新指标。包括:是否有标准规范文件(OpenAPI/AsyncAPI)、认证机制是否可程序化描述、错误码是否结构化、是否有沙箱环境供AI测试。这些原本属于" nice to have"的东西,可能变成AI集成的硬性门槛。
Divyank的工具反向推动了这种意识:当你能用10秒生成一个API的技能文件,那些生成失败的案例就会暴露设计缺陷。开发者会开始问:为什么我的API不能被自动解析?
从个人效率到组织知识
技能机制的另一个深层价值,在于把"个人Prompt工程"转化为"可沉淀的组织知识"。
现在的AI使用方式高度个人化——同样的任务,不同工程师写的提示词天差地别,效果也参差不齐。技能文件提供了标准化封装:最佳实践被编码进SKILL.md,执行细节被脚本固化,新人接手时AI助手已经"受过训练"。
这有点像内部技术文档的演进:从Wiki里的文字说明,到可运行的Runbook,再到现在的AI可直接加载的技能包。每一代都降低了知识传递的损耗。
对于技术管理者,这意味着可以开始思考"AI技能库"的建设:哪些API调用是高频重复的?哪些运维流程可以技能化?团队积累的领域知识如何转化为AI可用的资产?
Divyank的开源工具提供了一个低成本起点——不需要等官方支持,先从内部最常用的API开始,用生成器打底稿,人工调优后入库。几个迭代下来,团队的AI助手就会形成差异化的能力护城河。
技术债的新形态
当然,任何自动化都有代价。技能机制引入了一种新的技术债:AI与API的隐式契约。
当人类直接调API时,每次调用都是显式的、可审查的。封装成技能后,AI可能在复杂任务中自动发起数十次调用,中间状态对人类不透明。如果API行为变更(比如字段废弃、错误码调整),技能文件可能滞后,导致AI基于过时知识做错误决策。
Divyank提到的check命令(连通性测试)是初步的防御,但不够完整。更成熟的方案需要:技能版本管理、API变更检测与技能自动更新、调用日志的可审计性、以及关键操作的显式确认机制。
这些问题现在还不紧迫,因为技能主要用于只读操作和低风险调用。但随着AI被赋予更多写权限(创建资源、修改配置、触发部署),安全边界的设计会变得至关重要。
另一个潜在风险是技能文件的"幻觉"——生成工具从OpenAPI规范推导行为,但规范与实际实现可能有偏差。Divyank的工具注明了"无外部API调用",这意味着它不会验证端点是否真的可用、响应是否符合schema。生产环境使用前,需要人工审核或补充测试。
开源生态的飞轮效应
api-skill-creator选择开源和开放标准,押注的是生态飞轮而非单点工具。
短期看,这只是个省时的脚本生成器。长期看,如果Agent Skills标准被主流AI助手采纳,这个工具可能成为"AI-API集成"的事实标准入口。就像OpenAPI规范催生了Swagger Codegen等生态工具,Skills标准可能催生类似的生成器、市场、质量评估体系。
Divyank的仓库结构也暗示了这种野心:清晰的模块化设计、最小依赖(只有pyyaml)、多格式输入支持。这些都是为社区贡献和生态扩展预留的接口。
一个可以观察的指标:是否有API提供商开始官方维护技能文件,或者将这个生成工具纳入官方文档。这种"被采用"的信号,会比任何功能更新都更能说明趋势。
效率革命的最后一公里
回到最开始的场景:凌晨两点,第47个接口测试。Divyank的故事之所以动人,是因为它戳中了一个被忽视的痛点——AI已经很强了,但我们还在用石器时代的方式让它工作。
技能机制不是模型能力的突破,是交互范式的重构。从"每次重新教"到"一次学会终身复用",从"烧token读文档"到"确定性执行脚本",这些改进叠加起来,把AI从"偶尔帮忙的实习生"变成了"有肌肉记忆的老员工"。
对于25-40岁的科技从业者,这个工具的价值不只是省时间。它提供了一种思考框架:在你的工作流里,还有哪些"AI应该能做但还没教会它"的环节?哪些重复性认知劳动可以被技能化、脚本化、自动化?
Divyank的代码已经放在GitHub上,一行pip install就能跑。但真正的作业是:打开你最常用的那个内部API文档,看看生成出来的SKILL.md长什么样——然后想想,你的团队有多少这样的"隐形债务"还没被技能化。
热门跟贴