大家好,我是袋鼠帝。
最近这几天,我听到好多朋友都在抱怨:OpenClaw 好是好用,就是太费 Token 了!
Claude Code 也是一样的,用它来做 Vibe Coding 确实爽,但同样非常烧token。然后,每次想切换个模型,还要改配置,重启...
然后我现在其实是同时开了智谱、Kimi、minimax的coding plan,月花费将近1K了...
而且每次切换模型,我都要把API地址,apikey,模型名称都切换一遍..
然后今天早上我打开微信,突然发现:阿里云上新了 Coding Plan
我点进去一看,好家伙,首月最低才 7.9 块钱!连买杯瑞幸咖啡都不止这个价。
最关键的是,它一口气支持了自家除夕最新发布的Qwen-3.5、除夕前一个周Kimi发布的Kimi-K2.5,还有智谱的GLM-4.7。
虽然没上最新的 GLM-5 有点可惜(毕竟刚开源,估计还在适配),但我真心希望后续能给加上。如果后续能再把 MiniMax-M2.5 也拉进来,那这套阵容就彻底无敌了。
不过话说回来,这几个模型的能力就不用我再多强调了吧?绝对是目前国内编程和 Agent 领域的第一梯队。
除夕夜刚刚发布的 Qwen-3.5,在很多测试里的表现简直强得离谱(详情可以看我的好朋友 @冷逸 的)。
Kimi-K2.5 也是除夕前一周刚刚升级的多模态模型,推理和长文本、编程能力大家有目共睹(详情见我之前的那篇测评)。
Kimi-K2.5 袋鼠帝,公众号:袋鼠帝AI客栈
至于 GLM-4.7,虽然在 Agent 和复杂系统工程能力上比GLM-5稍弱,但4.7 有个巨大的优势:快!
GLM-5主要是做复杂任务的,虽然任务质量高了,但过程挺慢的,而 4.7 的响应速度非常适合接入 OpenClaw(小龙虾)这种个人助理应用。
毕竟你找个助理帮你干活,肯定是希望他秒回,不然你体感上总会觉得他是不是睡着了。
阿里云这个 Coding Plan 最大的好处,就是一次购买,全家桶带走。
一个套餐,这几家的顶尖模型你随便切换使用。而且切换起来还挺丝滑的(后面我会给大家演示)。
所以我第一时间就打开了阿里云百炼控制台->订阅套餐
https://bailian.console.aliyun.com/cn-beijing/?tab=model#/efm/coding_plan
本来我想买个 7.9 元的 Lite 基础套餐试试水,结果在付款页面,我发现不知道啥时候账户里多出来个 10 块钱的优惠券?
于是我果断选了 Pro 套餐。
选完之后,根据引导,会跳转到配置页面。
点击生成 API Key,复制并保存好这串专属密钥。
注意,这个 Key 的格式是 sk-sp- 开头的,千万别和百炼通用的 Key 搞混了。
然后,我点开了右上角的「使用指南」。
这里真的要给阿里云的产品经理点个赞。
非常贴心的同时提供了 OpenAI 兼容协议 和 Anthropic 兼容协议 的两套 API 地址。
OpenAI 兼容地址:
https://coding.dashscope.aliyuncs.com/v1
Anthropic 兼容地址:
https://coding.dashscope.aliyuncs.com/apps/anthropic
这意味着你可以拿着这个API接口,无缝接入市面上几乎所有主流的 AI 编程工具和 Agent 框架。
另外,阿里云的coding plan不按 Token 计费,而是按请求次数
emmm,这下应该不怕烧token了。
大家都知道,像 OpenClaw、Claude Code 这种 Agent 工具,在执行一个复杂任务时,会在后台进行大量的多轮规划、工具调用、自我反思。
这个过程中产生的 Token 消耗量是指数级增长的。
有数据显示,单个 Agent 的算力消耗是传统 Chatbot 的 100 到 1000 倍。
以前按 Token 算钱,你看着它在后台疯狂思考,心就在滴血。
如果按次收费,那终于可以心安理得的把复杂的任务交给它,自己去喝杯茶了。
当然,作为 API 来使用,除了量大管饱,最重要的还是稳定和速度。
阿里云作为亚太第一云厂商,算力底座这块绝对是让人放心的。
下面,我就给大家实操演示一下,怎么把它接入到我平时最常用的两个工具(Claude Code和openclaw)。以及实用情况如何。
接入 Claude Code
接入过程非常简单,
把下面的配置写到Claude Code的setting.json配置文件中
}
对了,支持的模型名称有:
qwen3.5-plus、qwen3-max-2026-01-23、qwen3-coder-next、qwen3-coder-plus、glm-4.7、kimi-k2.5
然后,你可以随意在多个模型之间切换,完全不需要改配置。
只需要在claude Code的对话框中执行
/model 模型名称
正好,我最近在开发我的 营销短视频一键生成平台 ,遇到了一个 Bug。
Prompt:我希望在 极速创作-脚本库选择 页面,如果我在自定义编辑框里输入了文案,即使我没有点击 保存到脚本库 ,这段文案也能直接被引入到视频生成的 Prompt 中。而现在的逻辑是,系统默认还会去读取原来选中的那个老文案。另外,如果我点击了 保存 ,系统只弹了个保存成功的提示,但数据库里根本没存进去。请帮我修复一下
我初步试了一下,这个回复速度真很快了(不知道是不是今天刚上,还没有多少人用的原因)
而且非常稳定,我之前用一些coding plan,会出现那种卡死的情况,就是半天都没反应,然后突然又莫名其妙不执行任务,这个问题在阿里云这次的coding plan上没有出现。
接入 OpenClaw
把下面的配置项替换一下,云上部署的位置在/root/.openclaw/openclaw.json
主要就关注openclaw.json里面的models和agents配置,注意把apikey填上
}修改完配置,保存
执行如下指令,重启openclaw生效:
openclaw gateway restart这次我把模型切到了阿里最新的qwen3.5-plus。
大家都知道这几天一直在传 DeepSeek V4 可能在大年初一发布。
我实在是不想自己一直去刷DeepSeek的消息,于是我给 OpenClaw 下了个任务。
设置好之后,我就把它挂在后台了。
按次计费就是这点好,哪怕它每 5 分钟去调用一次模型分析网页内容,我也不心疼。
回到控制台看了一下使用量,只使用了21次,如果我们想要把价值拉满,就少发:“你好”,“在吗”,尽量每次都给复杂任务,让它多跑token,这个羊毛就薅的更值了~
不过需要注意一下,一次复杂问题,可能会触发10-20次模型调用
不得不说,阿里云这波 Coding Plan 真的很有诚意。
对比了一下市面上其他几家的订阅服务,阿里云在价格上的优势明显。
而且,模型选择多。加上阿里云充足的算力保障,服务极其稳定。
我之前在深圳做项目管理的时候,待过的几家公司基本都用的阿里云服务器,所以对他们的底层基建还是很有信心的。
如果你只是平时写点小脚本,或者偶尔用 AI 辅助一下工作,选择Lite基础套餐就足够了。每个月 18000 次请求,绝对够你折腾。
但如果你像我一样,是个开发者,或者重度依赖 Agent 来处理复杂的自动化工作流,那我强烈建议你上 Pro 高级套餐 。每个月 90000 次请求,基本上等于实现了算力自由。
趁着现在有首月 2 折的优惠,感兴趣的朋友赶紧去薅这波羊毛吧~
如果你觉得这篇文章对你有帮助,记得点赞、收藏,分享给身边有需要的朋友。
让我们一起,在新的一年里,效率起飞,马到成功!
我是袋鼠帝,一个致力于帮你把AI变成生产力的博主。我们下期见。
能看到这里的都是凤毛麟角的存在!
如果觉得不错,随手点个赞、在看、转发三连吧~
如果想第一时间收到推送,也可以给我个星标⭐
谢谢你耐心看完我的文章~