作者:牛金鹏
来源:公爵互联社(ID:wlyxs888)
4月24日,AI圈上演了史上最戏剧性的一天。
没有预告,没有预热,OpenAI凌晨突然甩出GPT-5.5,主打极致复杂推理,API定价直接翻倍:输入5美元/百万token,输出30美元/百万token。
12小时后,DeepSeek发布V4全系列预览版,同步开源MIT协议,全线标配100万token上下文。最狠的是价格:V4-Flash输出0.28美元/百万token,V4-Pro输出3.48美元/百万token。
一个闭源涨价,一个开源降价;一个堆算力冲上限,一个抠效率打普惠;一个绑定英伟达高端生态,一个同时兼容英伟达和国产算力。
这不是两家公司的商业对决,而是全球大模型发展到今天,必然出现的路线分叉。从这一天起,AI再也没有“唯一正确”的标准答案了。
【别吹“追平GPT”了,DeepSeek真正的杀招是效率】
全网都在聊“国产模型追平GPT”,但这恰恰看错了DeepSeek V4最核心的价值。它根本不是靠堆参数堆出来的胜利,而是用一场效率革命,给整个行业上了一课。
先摆硬数据,没有任何水分:
- V4-Pro总参数1.6万亿,激活参数490亿;V4-Flash总参数2840亿,激活参数130亿
- 两个版本默认100万token上下文,半年前这还是顶级闭源模型的专属能力
- 100万token场景下,V4-Pro单token推理计算量仅为V3.2的27%,KV缓存占用降至10%
- V4-Flash的这两个数字更是低到10%和7%
翻译成人话就是:处理同样100万字的文本,V4只需要上一代1/4的算力,1/10的显存。这不是靠多买几块芯片堆出来的,而是DeepSeek自研的混合注意力架构,从根上解决了大模型“越做越贵”的死穴。
它的思路很简单:模型不需要对文本里的每一个字都同等重视。强关联的核心内容精读,弱关联的背景信息压缩,无关内容直接跳过。就像人看书一样,重点章节逐字读,附录扫一眼就行。
而OpenAI走的是完全相反的路:不断加参数、加训练数据、加算力,用暴力堆料的方式提升能力。为了支撑GPT-5.5的推理,OpenAI已经包下了英伟达今年一半以上的Blackwell芯片产能。
从实际表现看,V4-Pro在数学、STEM、编程等高难度任务上,已经和GPT-5.4、Claude Opus 4.6站在了同一梯队。在Agentic Coding评测中,它是目前开源模型的天花板,交付质量接近Claude Opus非思考模式。V4-Flash虽然参数小了一圈,但核心能力和Pro版差距极小,响应速度更快,价格却只有Pro的1/12。
最关键的是,这次DeepSeek用了MIT开源协议。任何人、任何公司,都可以免费下载、修改、商用这两个模型。也就是说,一个3人创业团队,花几千块租台服务器,就能部署一个拥有百万上下文能力的顶级大模型,不用给任何人交一分钱授权费。
【别再说“追赶”了,中美AI早就不在一条赛道】
现在行业里最过时的一句话,就是“中国AI在追赶美国AI”。
看完这两次发布你就会发现,两边根本跑的不是同一条跑道。它们从底层逻辑、目标用户到商业模式,已经完全分道扬镳了。
美国AI的核心逻辑是“探索边界”。OpenAI、Anthropic、谷歌这些公司,把90%的精力都放在了基础研究和前沿突破上。它们要做的是“世界上最聪明的AI”,能解数学难题、能做科学实验、能写复杂代码。为了这个目标,它们愿意不计成本,用最贵的芯片,训练最大的模型。
这条路的优势毋庸置疑。GPT-5.5在Terminal-Bench 2.0测试中得分82.7%,比第二名Claude Opus 4.7高出13个百分点;在OSWorld-Verified测试中,成功率达到78.7%,已经超过了人类基线。这些顶级复杂推理能力,目前没有任何开源模型能比得上。
但这条路的死穴也同样明显:成本正在指数级爆炸。GPT-5.5的价格比上一代翻了一倍,普通用户用不起,中小企业用不起,甚至很多大公司都开始抱怨成本太高。如果继续这么走下去,AI最终只会变成少数科技巨头和富裕国家的专属玩具。
而中国AI的核心逻辑是“落地为王”。以DeepSeek、通义千问、文心一言为代表的公司,从一开始就没想做“最聪明的AI”,而是要做“最有用的AI”——便宜、稳定、好部署、能解决各行各业的实际问题。
为了这个目标,中国公司把工程化能力做到了极致。别人堆参数,它们优化架构;别人用最贵的芯片,它们适配全平台算力;别人闭源卖高价,它们开源做生态。DeepSeek V4就是最好的例子:用不到三分之一的算力,实现了接近顶级闭源模型的效果,同时还完成了华为昇腾、寒武纪的全量适配。
这两条路线没有高低之分,只是选择不同。美国路线负责告诉我们,AI未来能做到什么;中国路线负责让今天的所有人,都能用上AI。它们不是竞争对手,而是互补关系,共同推着整个行业往前走。
【100倍价差不是价格战,是开源对闭源的降维打击】
很多人说DeepSeek在打价格战,这太小看它了。这根本不是普通的商业竞争,这是开源模式对闭源垄断的一次全面降维打击。
我们来算一笔最直观的账:
- 输出100万token,GPT-5.5要30美元(约216元人民币)
- Claude Opus 4.7要25美元(约180元人民币)
- Gemini 3.1 Pro要12美元(约86元人民币)
- DeepSeek V4-Flash只要0.28美元(约2元人民币)
这不是差几倍,是差了整整两个数量级。V4-Flash的价格,只有GPT-5.5的不到1%。
有人问,这么便宜,DeepSeek赚钱吗?答案是,现在可能不赚,但未来一定会赚。因为它和OpenAI的商业模式,从根上就不一样。
OpenAI的商业模式是“卖水”。它把模型能力封装成API,按调用量收费。为了利润最大化,它只能不断涨价,同时控制成本。但模型越大,成本越高,涨价就成了唯一的出路。
而DeepSeek的商业模式是“修水库”。它通过开源免费的方式,让尽可能多的人用自己的模型。当用户基数足够大的时候,它可以通过云服务、企业级解决方案、技术支持赚钱。更重要的是,海量的用户反馈和场景数据,会反过来喂给模型,让它变得越来越好,形成正向循环。
这种模式的威力已经开始显现。第三方数据显示,目前中国大模型的周调用量已经超过了美国。在东南亚、中东、拉美这些新兴市场,中国开源模型的市场份额正在以每个月10%的速度增长。这些地方的中小企业,根本负担不起OpenAI的高价API,而DeepSeek给了它们一个用得起的选择。
更重要的是,开源正在打破闭源的垄断壁垒。以前,AI技术掌握在少数几家公司手里,它们可以随意定价,控制生态。现在,任何人都可以下载一个顶级大模型,在自己的服务器上运行,数据完全自己掌控。AI终于从少数人的特权,变成了一种公共基础设施。
【未来没有“全球第一”,只有最适合你的AI】
DeepSeek V4和GPT-5.5的同天发布,标志着全球大模型行业,正式进入了多元化时代。
以后再也不会有一个“天下第一”的大模型,也不会有一种所有人都必须遵循的发展路线。不同的模型,会有不同的定位,服务不同的人群和场景。
对于普通用户来说,这是最好的时代。你需要写论文、做复杂推理,可以用GPT-5.5;你需要处理长文档、写代码、做日常办公,V4-Flash完全够用,而且便宜到可以随便造。不用再为了用不上的顶级能力,支付高昂的溢价。
对于企业来说,这意味着更多的选择和更低的风险。以前企业做AI,只能选OpenAI,不仅贵,数据安全还没保障。现在你可以部署开源模型在自己的私有服务器上,完全掌控数据,还能根据自己的业务需求微调。光是这一点,就能让无数传统企业的智能化成本降低90%以上。
对于整个行业来说,多元化竞争才是健康的。如果只有一家公司垄断市场,只有一种路线主导行业,创新就会停滞。现在中美两条路线并行,开源和闭源相互竞争、相互学习,整个行业的迭代速度只会越来越快。
当然,我们也要清醒地看到差距。在最顶级的复杂推理和科学计算领域,美国模型依然领先。中国AI在基础研究、原始创新方面,还有很长的路要走。但我们也不用妄自菲薄,在工程化、成本控制、产业落地这些方面,中国已经走在了世界前面。
4月24日这一天,不是谁战胜了谁,也不是谁取代了谁。它只是告诉我们:AI从来就不该只有一种样子。有人负责仰望星空,探索未知的边界;有人负责脚踏实地,让技术惠及每一个人。
这才是AI真正该有的未来。
注:本文部分数据内容来源于网络公开资料
作者:牛金鹏,(公爵互联社主理人)专栏作者,特邀媒体评论员、新经济观察家,商业科技评论人。关注电商、O2O、企业转型、互联网 、新媒体、大数据、AI、新能源等领域。
热门跟贴