打开网易新闻 查看精彩图片

AWS上个月发布的Agent Plugins(智能体插件),官方宣传是"让Claude Code一键调用AWS服务"。但有个细节没人提:如果你已经买了Kiro Pro订阅,完全不用再给Anthropic API充钱。我把Claude Code的流量拐了个弯,实测了一周,发现这个方案省下的不只是账单。

01 | 省下的API费,只是最表面的账

01 | 省下的API费,只是最表面的账

Claude Code默认直连Anthropic的API,按token计费。对于重度用户,这意味着每月几百美元的固定支出。但Claude Code从2.1.29版本开始支持ANTHROPIC_BASE_URL环境变量——这个设计本意是让企业用户对接私有部署,却被开发者玩出了新花样。

kiro-gateway是一个开源代理工具。把它架在本地,Claude Code会以为自己在跟Anthropic服务器对话,实际上请求被转到了Kiro Pro的订阅通道。Kiro Pro是AWS推出的开发者AI工具套件,月费固定,不限制调用量。

对每天跑几十轮代码生成的开发者来说,这笔账很容易算清:固定订阅费 vs 随用量膨胀的API账单。

设置过程比想象中简单。全局安装Claude Code后,克隆kiro-gateway仓库,建个Python虚拟环境装依赖。配置文件里最关键的两行:SERVER_HOST绑127.0.0.1,KIRO_CLI_DB_FILE指向kiro-cli的认证数据库——macOS用户在~/Library/Application Support/kiro-cli/data.sqlite3。

启动网关后,在~/.claude/settings.json里把ANTHROPIC_BASE_URL指向http://127.0.0.1:9000,API_KEY填网关的本地代理密钥。第一次运行Claude Code会弹窗确认,选Yes就行。Anthropic的服务器从头到尾没参与这次握手。

02 | Agent Plugins到底能干什么

02 | Agent Plugins到底能干什么

AWS这次发布的Agent Plugins不是简单的命令封装。每个插件打包了四种产物:技能定义(告诉AI能做什么)、工具实现(实际怎么调用)、上下文模板(对话开场白)、还有MCP服务器(Model Context Protocol,模型上下文协议,提供实时数据)。

市场里有7个插件可选:deploy-on-aws、aws-serverless、aws-amplify、databases-on-aws、amazon-location-service、migration-to-aws、sagemaker-ai。安装方式是在Claude Code里敲三行命令:先添加市场源,再装具体插件,重启生效。

我重点测了aws-serverless。它内置三个技能:aws-serverless-init初始化项目结构,aws-serverless-dev做本地开发调试,aws-serverless-deploy处理部署。背后有个aws-serverless-mcp服务器在跑,Claude能实时查询你的Lambda函数状态、API Gateway端点、CloudWatch日志。

这种架构的聪明之处在于:AI不再只是生成代码草稿,而是能操作真实资源、读取实时状态、根据反馈调整下一步。

deploy-on-aws插件更直接,只有一个deploy技能,但拆成五步:验证代码→构建产物→配置环境→执行部署→验证结果。每一步都有明确的输入输出契约,Claude Code会主动询问缺失的参数,而不是瞎猜。

03 | 实测中踩的3个坑

03 | 实测中踩的3个坑

第一坑是版本锁。Claude Code必须2.1.29或更新,旧版本不认ANTHROPIC_BASE_URL。我一开始用的2.1.27,网关启动正常,Claude Code却直接报错连接失败。升级后问题解决。

第二坑在认证链。kiro-gateway需要读取kiro-cli的SQLite数据库来获取登录态,但macOS的权限管理会拦截。解决方案是手动给终端"完全磁盘访问权限",或者在系统设置里单独放行。这个步骤文档里没写,我翻GitHub issue才找到。

第三坑最隐蔽:插件安装后的重启。Claude Code的热更新机制不会自动加载新插件,必须完全退出进程再启动。我第一次装完aws-serverless,敲/plugin list显示已安装,但问Claude"帮我建个Lambda"时它完全没反应。重启后技能才被正确注册。

这三个坑的共同点是:工具链的每个环节都"看起来正常",直到某个具体场景才暴露问题。这种分布式故障最难排查,因为日志分散在网关、Claude Code、插件MCP服务器三个地方。

04 | 为什么AWS要这么设计

04 | 为什么AWS要这么设计

把技能包拆成可插拔的插件,而不是硬编码进Claude Code,这个决策值得琢磨。AWS的工程师显然在赌一个未来:模型会快速迭代,但云服务的操作范式相对稳定。今天用Claude,明天可能换Gemini或Llama,只要插件接口不变,底层技能可以复用。

MCP(模型上下文协议)的引入更关键。它定义了一套标准,让外部工具能向AI暴露结构化数据。aws-serverless-mcp服务器不是简单包装AWS CLI,而是把CloudFormation堆栈状态、Lambda并发指标、DynamoDB表结构翻译成AI能理解的上下文。

这种设计让Claude Code从"代码生成器"变成了"云资源操作员"。你可以说"把staging环境的Lambda内存从512MB调到1GB",它会先查当前配置、确认权限、执行修改、再验证结果——整个过程不需要你离开对话界面。

Kiro Pro的定价策略也很有意思。固定月费模式在toB市场常见,但在个人开发者工具里算激进。AWS显然在赌:当开发者的AI调用量超过某个阈值后,Kiro Pro的性价比会碾压按量计费。kiro-gateway这个开源项目,某种程度上是降低试用门槛的钩子。

05 | 这套方案适合谁

05 | 这套方案适合谁

不是所有开发者都需要这么绕。如果你每月Claude Code用量在20美元以内,直接付API费更省心。kiro-gateway的维护成本——本地服务保活、版本升级、故障排查——对轻量用户是负收益。

但有两类人应该认真考虑:一是每天跟AWS基础设施打交道的平台工程师,他们的对话轮次高、上下文长,API账单容易失控;二是已经在用Kiro Pro的团队,网关方案让Claude Code成了订阅的附赠品,边际成本趋近于零。

有个细节很多人没注意到:Kiro Pro的订阅包含的模型版本,通常比Anthropic API的默认版本新半代到一代。这次测试用的claude-sonnet-4-6-20250929,在官方API的对应版本还没全量开放。对于追新特性的开发者,这是额外的隐性收益。

插件生态的成熟度是另一个考量。7个插件覆盖的场景还偏基础,复杂的多服务编排、跨账号部署、成本优化建议这些高级场景,目前需要人工介入。AWS的文档暗示更多插件在开发中,但时间表不明。