5月6日,OpenAI 把 GPT-5.5 Instant 设成了 ChatGPT 默认模型,全员免费。同一周,国产大模型阵营几乎同步降价:DeepSeek V4 保持极低定价,Qwen3.6-27B 直接开源,MiniMax 和 GLM 也纷纷调价。
这不是一次普通的版本更新。GPT-5.5 免费之后,价格不再是国产大模型的护城河。本来靠"便宜又好用"打出来的市场空间,突然被一个免费的顶配模型堵住了入口。
这篇文章用三个关键维度的数据,帮你理清这轮大模型价格战到底发生了什么。
GPT-5.5 Instant 免费了,到底免了什么
先把免费说清楚。
Instant 不是功能阉割版。它是这一代的标准版本,5月6日起替代 GPT-5.3,内置到 ChatGPT 里,不需要 Plus 订阅就能用。核心升级就三件事:
幻觉率暴降 52.5%。在医疗、法律、金融这些高风险场景里,GPT-5.5 的错误声明比上一代少了一半多。用户标记的不准确信息也降了 37.3%。这两个数字不是官方宣传稿里的,是上线后真实用户反馈跑出来的。
推理速度提升了 3 倍,长文本理解翻倍。你上传一份几十页的技术文档让它分析,从"等一会儿"变成了"基本秒回"。
100 万 token 上下文终于不是摆设了。之前几代虽然也标了百万上下文,但实测中段信息经常丢(社区管这叫"lost in the middle")。这一代做了针对性优化,长文档处理的可用性比之前强不少。
付费的 GPT-5.5 Ultra 多了什么?数学推理和代码生成上的质变。OpenAI 自己的对比图里,Ultra 在 AIME 数学推理、SWE-bench 编程评测上拉开了一截。说人话就是:日常写文案、做翻译、整理信息,Instant 够了;做复杂推理、编程 Agent 任务,Ultra 才是正经主力。
国产大模型集体降价,降了多少
消息出来后,国产阵营的反应来得很快。
先说 DeepSeek V4。它跟 GPT-5.5 同一天发布(4月24日),Pro 版 1.6T 总参、49B 激活,定价 $3.48/百万 token;Flash 版输出只要 $0.28。技术上不是硬烧钱。V4 用了混合注意力(CSA + HCA),KV cache 压到 V3.2 的 10%,推理成本直接砍了大半。便宜是因为底子硬,不是补贴。
Qwen3.6-27B 走的是另一条路:开源。270 亿参数,Dense 架构,SWE-bench Verified 冲到 77.2 分,超过了自家 397B 的 MoE 旗舰。18GB 显存就能本地跑。你在 MacBook 上就能部署一个编程能力逼近旗舰的模型,零 API 费。对独立开发者和小团队来说,这比任何"降价"都实在。
MiniMax、GLM-5、Kimi K2.5 也都在动。MiniMax 把百万 token 成本压到 1.2-2.4 美元,GLM-5 走低延迟路线,Kimi K2.5 主打多模态。每家都在找自己的差异化位置,没谁在简单跟风。
一个有意思的数据:OpenRouter 统计,4月27日到5月3日这周,国产模型调用量冲到 7.9 万亿 Token,环比涨 81.7%;同期美国那边是 3.26 万亿,环比跌了 34.6%。调用量反超不是偶然。开源加低价加可本地部署这套组合,正在实打实地抢份额。
GPT-5.5 vs 国产大模型:三个维度判高下
价格战打到现在,选模型不能只看价格——在一个实际项目里跑起来怎么样,才是真的。三个维度给你参考:
幻觉率这块,GPT-5.5 的 52.5% 降幅是有量化数据的。如果你的内容对准确性要求高(技术文档、金融解读、合规审查),这个差距不是小数字。国产大模型在中文语境下的事实性有优势,但英文和专业领域还有距离。
部署成本这块,国产大模型明显占优。Qwen3.6-27B 18GB 显存就够,DeepSeek V4 的定价低到日常调用不用算账。这轮价格战下来,高频场景的总成本能差好几倍。不过如果你已经有 Azure OpenAI 国内代理,GPT-5.5 的接入也不麻烦。
编程能力这块,SWE-bench 上 Qwen3.6-27B 拿了 77.2,GPT-5.5 Ultra 在 80 以上,差距不大。但在实际开发中,模型能不能调工具、跑终端命令、自己改 bug 再跑一遍——这些 Agent 能力比单纯的代码生成分数重要得多。目前 Ultra 加 Codex CLI 这套在 Agent 完整性上更成熟,国产模型在工具调用和自主执行上还在追。
GPT-5.5 vs 国产模型:不同场景这么选
一句话版建议:
日常办公和写作,GPT-5.5 Instant 免费,足够用了。国产模型里 DeepSeek V4 Flash 也划算,中文质量不输。
代码开发和编程 Agent,GPT-5.5 Ultra 综合能力领先但贵。Qwen3.6-27B 本地部署是性价比之选,MacBook 上能跑出旗舰编程能力,SWE-bench 77.2 分摆在那里。习惯用 Claude Code 的话,DeepSeek V4 接进去也很顺。
高频 API 调用、成本敏感,闭眼选国产。DeepSeek V4 Flash 那 0.28 美元的定价,MiniMax 的低延迟,GLM-5 的长上下文,都是实在优势。
企业内部部署和安全合规,Qwen3.6-27B 开源加本地跑,数据不出门。如果合规要求严,这个路线基本是唯一解。
这轮由 GPT-5.5 带起来的降价潮,对开发者总体是好事。一年前调用大模型还要算着用,现在免费加开源加低价的组合拳打下来,选模型从"省着用"变成了"哪个好用用哪个"。
GPT-5.5 免费拉低了行业价格锚点,国产大模型用开源和本地部署走出了另一条路。路线之争才刚开始,但可选择的东西前所未有地丰富。你日常用哪家比较多?这波价格战有没有影响你的选型?评论区聊聊。
热门跟贴