3月27日,智谱突然放出GLM-5.1。不是发布会,没有预热,官网一行更新日志,Coding Plan用户(Max/Pro/Lite三档)直接解锁调用权限。这距离GLM-5正式发布才过去不到两个月,版本号跳得比Chrome还勤快。
20万token上下文窗口,输入输出全免费。这两个数字放在当前市场什么概念?Claude 3.7 Sonnet的20万窗口要按量付费,GPT-4o的同级别上下文是12.8万。智谱这次把成本直接压到零,相当于在别人的收费停车场门口挂了个"免费停车"的牌子。
配置方法已经流出。Claude Code用户需要手动改settings.json,把环境变量指向GLM-5.1;OpenClaw用户更麻烦些,要在providers.zai.models数组里追加配置对象,再改默认模型指向。IT之家把步骤拆解到了命令行级别,Mac用户记得vim后加":wq"保存——这种细节说明文档是工程师自己写的,没经过市场部润色。
为什么版本号从5跳到5.1,却值得专门发一版?
看配置参数就懂了。GLM-5.1的contextWindow维持在204800(20万token),maxTokens(最大输出长度)131072,和GLM-5完全一致。但reasoning字段保持true,说明推理能力没缩水。真正的升级藏在调用策略里:Coding Plan用户之前用GLM-5可能有隐性配额或速率限制,5.1版本明确"所有档位均可调用",等于把权限边界彻底打开。
有个细节很有意思。配置示例里GLM-5.1的cost对象,input/output/cacheRead/cacheWrite四项全部标0。这不是"暂未定价"的占位符,而是实打实的免费策略。对比OpenAI的o1-pro每百万输入token收15美元,智谱这招相当于在代码生成赛道直接掀桌。
但免费也有代价。目前GLM-5.1只开放给Coding Plan订阅用户,不是全民公测。这个Plan的定价体系里,Lite档最便宜,Max档最贵,三档共享同一套模型权限。换句话说,智谱在用模型能力做订阅分层,而不是按调用量计费——这和主流云厂商的商业模式完全相反。
Claude Code和OpenClaw的适配,暴露了智谱的野心
两个配置路径值得玩味。Claude Code是Anthropic官方推出的CLI工具,OpenClaw是开源的Claude替代客户端。智谱同时支持两者,意味着不想被锁死在任何单一生态里。更微妙的是环境变量命名:ANTHROPIC_DEFAULT_SONNET_MODEL、ANTHROPIC_DEFAULT_OPUS_MODEL,直接复用了Anthropic的模型等级体系。GLM-5.1对标的是Claude的Sonnet/Opus档位,而不是自家的数字序列。
这种"借壳上市"的策略很聪明。开发者不用重新学习模型能力图谱,看到"Opus级别"就知道是旗舰性能。但风险也在这里:如果GLM-5.1的实际表现配不上Sonnet/Opus的期待,口碑反噬会比独立命名更猛烈。
OpenClaw的配置更暴露技术细节。contextWindow 204800是硬编码的静态值,不是动态伸缩。这意味着长文本处理时,系统会一次性加载20万token的上下文窗口,哪怕实际对话只有2000token。对本地内存和带宽都是考验,但换来了确定性——不会出现"聊着聊着窗口被截断"的意外。
零成本背后的算盘: Coding Plan到底在卖什么?
所有模型调用免费,那Coding Plan的订阅费买什么?目前能看到的是速率保障、优先排队、以及可能的专属功能解锁。这和GitHub Copilot的商业模式类似:模型推理成本被摊进月费,用户感知不到单次调用的价格波动。
但智谱走得更远。GLM-5.1的免费不是限时促销,是写入配置文件的永久cost: 0。这意味着一旦用户习惯养成,后续提价的空间被锁死。除非——除非5.1只是过渡版本,真正的收费模型叫GLM-5.5或者GLM-6。
一个反常识的数据点:GLM-5.1的maxTokens 131072,换算成中文大约是9万字输出。足够一次性生成完整的技术文档、中型项目的代码骨架、或者长篇报告。之前的模型往往在2-4万字处截断,需要用户手动"继续生成"。这个提升对自动化工作流的意义,比跑分高5%实在得多。
配置教程里的"Mac用户记得:wq",说明了什么?
IT之家的文档里混着vim操作提示,这种颗粒度的说明通常来自社区贡献或官方技术支持的直接搬运。侧面印证GLM-5.1的发布节奏确实仓促,没来得及做包装级的用户引导。好处是信息保真,坏处是门槛过高——非技术背景的订阅用户可能根本找不到settings.json在哪。
这也解释了为什么限定Coding Plan用户。能自己改JSON配置的人,大概率是目标客群里的高活跃用户,反馈质量和容忍度都更高。等这批人跑通流程、产出案例,再开放给更广泛的用户层,是更稳妥的 rollout 策略。
目前社区里已经有人在测试GLM-5.1的长文本稳定性。20万窗口处理代码库时,能否保持上下文一致性,是比跑分更关键的验收标准。有用户反馈说,在处理超过15万token的遗留项目时,模型对跨文件依赖关系的理解"比GLM-5少了些幻觉",但具体数据还在收集中。
智谱没公布GLM-5.1的技术白皮书,也没有基准测试分数。这种"先上线、后解释"的做法,在国产大模型里越来越常见。好处是抢占用户心智,坏处是专业开发者会持币观望——毕竟谁也不想基于一个黑箱做架构决策。
但免费本身就是最强的信号。当竞争对手还在按token计费时,智谱选择用订阅制换生态位。这个赌局的关键在于:Coding Plan的用户增长,能否覆盖模型推理的边际成本?以及,当用户习惯了20万窗口+零调用费,还能不能接受回退到付费模式?
GLM-5.1的配置文件里,model ID写的是"glm-5.1",但name字段是"GLM-5.1"。大小写不一致这种细节,通常不会出现在成熟产品的发布流程里。是赶工痕迹,还是故意为之?
热门跟贴