4月29日23:59:59,阿里云百炼的工程师按下了发布键。没有发布会,没有通稿,一份价目表更新悄然上线——DeepSeek-V4-Pro的隐式缓存计费,从行业主流的10-80元/百万Token,一刀砍到1元。
这不是促销。这是宣战。
一折背后的精算逻辑
先看规则设计。降价只针对「命中缓存的输入Token」,未命中部分、输出Token、基础推理价纹丝不动。这种克制本身就是一种信号:阿里不想烧钱换市场,而是要建立一套新的定价语法。
隐式缓存的机制并不复杂——系统自动识别请求中的公共前缀,复用计算结果。多轮对话、RAG知识库查询、固定指令批量处理,这些上下文重复率高的场景,缓存命中率能达到60%-90%,实际用模成本直接打两折甚至更低。
关键在「隐式」二字。开发者无需改一行代码,系统后台自动完成。这降低了 adoption 门槛,也让阿里云能把技术红利快速转化为用户粘性。
选DeepSeek-V4-Pro作为降价载体,同样是精算。1M超长上下文、MoE架构的低推理成本,这款模型在开发者圈子里已经建立起「好用不贵」的心智。借力现成的流量池,比推自家冷门模型省力得多。
为什么现在?为什么是这个数字?
时间点的选择值得玩味。五一假期前夜,企业IT负责人和开发者刚好有空研究新方案,节后立项周期直接衔接。23:59:59的精确到秒,既制造了紧迫感,又留足了合规缓冲。
1元/百万Token这个数字,是心理锚点,也是行业分水岭。
对比现状:主流大模型标准输入价普遍在10-80元区间。阿里这次相当于给「重复计算部分」单独定价,且定在了对手难以跟进的成本线——前提是拥有足够的规模效应和调度优化能力。
这揭示了一个残酷现实:大模型价格战已经告别「谁更便宜」的粗放阶段,进入「谁的精算能力更强」的精细化战场。单纯的降价是自杀,结构化的降本才是壁垒。
百炼的生态位迁移
要理解这刀的分量,得看清百炼现在的位置。
这个平台早已跳出「卖自研模型」的逻辑,转而定位「大模型的操作系统」。通义千问、DeepSeek、Kimi、GLM……国内外主流模型统一接入,API、微调、部署、运维一站式搞定。
这种聚合模式的底层逻辑正在变化。DeepSeek为代表的开源力量,快速瓦解了基座模型的技术壁垒。厂商很难再靠「我的模型比你的强」锁住客户,护城河向两个方向迁移:工程化降本能力,生态粘性。
隐式缓存降价同时打在这两个点上。
技术层面,缓存命中意味着阿里云自身的算力消耗大幅下降,这是规模效应与底层调度优化的结果,非补贴可持续。生态层面,它精准解决了开发者最头疼的「重复计算浪费税」——此前这部分成本被摊在所有请求里,现在被显性地剥离、定价、让利。
谁受益?谁被误伤?
直接受益者是中小企业和开发者。7×24小时无人客服、自动化金融研报生成、大规模代码库巡检——这些因成本过高停留在PPT上的场景,突然具备了正向ROI。
更深层的变革在定价体系本身。大模型API正在全面向成熟云计算看齐:流式输出、异步调用、批量推理、不同命中率梯度的缓存折扣……结构化定价将成为常态。精算能力会成为云厂商的核心竞争力,就像AWS当年把EC2的按需计费玩出花一样。
但风险同样明显。
缓存降价的红利并非普惠。对话内容零散、无固定前缀的开放式问答,命中率几乎可以忽略不计。市场很容易产生「全民享低价」的误判,选型时低估实际成本。
更隐蔽的风险在服务质量。极致低价考验底层算力运维与缓存算法优化,若平台为控成本而牺牲响应延迟、缓存稳定性,口碑反噬会来得很慢。
还有一个长期变量:缓存技术的成本优势是阶段性红利。随着推理效率持续迭代,显式缓存等更精准模式优化,隐式缓存的边际收益终将摊薄。这不是终身会员,是阶段性窗口。
行业底牌已亮
这场调价的核心价值,在于推动大模型向「水电煤」式基础设施迈进。不是让所有人用得起,而是让特定场景、特定用法的成本结构变得可预测、可优化。
垂直行业的AI原生应用将迎来爆发,企业级SSD等存储产业链也将因冷数据缓存技术的普及而受益。阿里云则有望凭借极致的成本优势,进一步巩固其MaaS市场的头部地位。
但真正的悬念不在价格本身。大模型价格战的底牌已经亮出,不再是简单的数字比拼,而是谁能在复杂的定价迷宫中,让自己的价格看起来更「聪明的便宜」。
而这份藏在精算表里的竞争力,最终会沉淀为谁的生态壁垒,才是接下来真正值得期待的好戏。
热门跟贴