来源:市场资讯
(来源:商界观察)
最近AI圈的瓜,比程序员写的bug还多,而且反转来得比代码调试还快。3月中旬,程序员圈无人不知的Cursor,高调推出了新模型Composer 2,吹得天花乱坠——自研前沿编码模型,测试成绩干过Claude Opus 4.6,价格还直接“脚踝斩”,一度刷屏全网。可谁能想到,这场风光无限的发布,连24小时都没撑过,就被一个无心之举戳破了“自研”的外衣,连马斯克都下场补刀,而背后藏着的,竟是国产开源模型的逆袭真相。
一、高调发布:性价比封神,宣称“全自研”
对于程序员来说,Cursor绝对是老熟人,曾经几乎是每个开发者电脑里的必备工具,主打一个“写代码快、准、省”。这次发布的Composer 2,更是被Cursor吹上了天。官方公告里,反复强调这是他们“持续预训练+大规模强化学习”搞出来的自研模型,专门针对编程场景优化,还晒出了第三方测试成绩——在衡量终端操作能力的Terminal-Bench 2.0测试中,得分61.7,直接超过了Claude Opus 4.6的58.0。
更让人眼前一亮的是价格。Composer 2标准版百万Token输入只要0.5美元、输出2.5美元,比上一代便宜了86%,甚至不到Claude同类服务的三分之一。要知道,现在全球大模型都在涨价,Cursor反而反向降价,一时间圈粉无数,不少开发者直呼“良心”,甚至有人预测,这会直接改写AI编程工具的格局。
与此同时,Cursor正在洽谈新一轮融资,估值目标直奔500亿美元,而去年11月,它的估值还只有293亿美元。靠着“自研+高性价比”的标签,Cursor一时间风头无两,俨然一副“AI编程新霸主”的姿态。没人会想到,这份风光,很快就会被一个小小的API接口彻底击碎。
二、意外翻车:一个API,出卖了“套壳”真相
风波的起因,纯属偶然。一位名叫Fynn的开发者,在调试Composer 2的OpenAI兼容接口时,无意间修改了base URL,结果在返回的模型列表里,看到了一行格外扎眼的标识:
accounts/anysphere/models/kimi-k2p5-rl-0317-s515-fast。
懂行的人一看就懂,这行标识简直是“直球泄密”:k2p5就是月之暗面的Kimi K2.5,rl是强化学习的缩写,0317大概率是训练日期,fast则是快速版本。翻译过来就是:Cursor吹上天的Composer 2,本质上就是Kimi K2.5,只做了一点强化学习微调,根本不是什么“全自研”。
这位开发者把发现发到社交平台后,瞬间引爆了技术社区。更有意思的是,马斯克居然也刷到了这条内容,直接在下面评论:“对,它就是Kimi K2.5。”大佬一句话,相当于直接给这场争议定了调,Cursor的“自研”人设,瞬间崩塌。
更尴尬的还在后面。Kimi K2.5用的是修改版MIT许可证,里面有一条明确规定:如果用这个模型做商业产品,月活超1亿或者月收入超2000万美元,必须在产品界面醒目位置标注“Kimi K2.5”。而Cursor 2026年2月的年化收入已经突破20亿美元,月均收入1.67亿美元,是许可证门槛的8倍多,但不管是Composer 2的发布博客、官网,还是产品界面,连一个“Kimi”的字都没有。
一时间,网友炸锅了。有人调侃:“感谢Moonshot打工,感谢Fireworks提供推理,感谢Cursor收割溢价”;也有人吐槽:“开源模型最大的用处,就是让美国创业者快速做独角兽,然后把功劳全算自己头上”。月之暗面的预训练负责人杜羽伦也直接下场,晒出测试证据——Composer 2的tokenizer和Kimi的完全一致,质问Cursor为何不遵守许可证。
三、反转来袭:不是侵权,是“沟通失误”?
就在争议愈演愈烈,大家都以为Cursor要栽在“套壳”和“违规”上时,反转来了。3月21日凌晨3点左右,Kimi官方账号在X平台和微博同步发布声明,直接给这场风波降温。
声明里说得很客气,先是祝贺Cursor发布Composer 2,还表示“很自豪看到Kimi K2.5提供了基础”,最后关键一句点明:Cursor是通过第三方平台Fireworks AI,获得了Kimi K2.5的商业授权,属于合法合作,不存在侵权。
紧接着,Cursor团队也赶紧回应,承认未在发布时提及Kimi基座模型是“沟通失误”,还解释说,Composer 2虽然基于Kimi K2.5,但他们投入了4倍规模的强化学习,还做了编程场景的专属适配,不是单纯的“套壳”。Cursor的联合创始人还补充,他们只用了四分之一的算力在基座模型上,剩下的全花在了强化学习、数据优化和产品打磨上,全程遵守开源许可。
一场看似要闹到法庭的纠纷,转眼间就变成了“沟通不当”的公关事件。有人调侃,这波操作相当于“借了别人的地基盖房子,盖好后没提地基是谁的,被发现后说忘了说,还强调自己装修花了很多钱”。虽然合法,但确实有点不地道。
四、旧疾复发:Cursor不是第一次“藏底色”
其实,这已经不是Cursor第一次因为“隐藏模型基座”陷入争议了。早在2025年10月,Cursor发布Composer 1的时候,就有过一次类似的“翻车”。
当时,多国开发者发现,Composer 1生成的代码里,经常会莫名出现中文注释。有投资人直接晒出截图,认定这是Composer 1基于中国开源模型微调的“铁证”。后来有媒体证实,Cursor和另一款AI编程工具Windsurf,都在使用中国开源模型,其中Windsurf大方承认用的是智谱的GLM。
可Cursor却嘴硬得很,死活不公开Composer 1的基座模型,最后靠着快速发布Composer 1.5版本,悄悄把这件事翻篇了。这次Composer 2的争议,本质上就是同一个问题的重演——如果不是开发者意外发现那个API标识,估计Cursor还会继续隐藏这个秘密。
更有意思的是,这种“拿国产开源模型做基底,却不标注”的操作,在行业里居然不是个例。就在3月17日,日本科技巨头乐天集团发布大模型Rakuten AI 3.0,宣称是“日本国内最大规模、最高性能”的模型,结果被扒出来,底层用的是中国的DeepSeek-V3。
五、背后真相:国产开源模型,早已悄悄领跑
这场风波看似是Cursor的“公关翻车”,但背后藏着一个不容忽视的真相:国产开源模型,已经悄悄实现了弯道超车。
根据最新的数据,面向AI应用开发者的全球大模型聚合路由平台OpenRouter显示,中国大模型的调用量已经连续两周超越美国模型。在全球最大AI开源社区Hugging Face的榜单上,排名前十的开源模型,要么是中国模型,要么是中国模型的衍生模型。就连马斯克、黄仁勋等行业大佬,也多次公开称赞中国开源模型的实力。
Kimi K2.5本身就是月之暗面发布的开源模型,目的就是希望更多开发者和企业在此基础上创新。而Composer 2能靠着它实现性能突破、价格亲民,也从侧面证明了国产开源模型的实力——不仅好用,性价比还高。
现在的AI圈,有一个很尴尬的现象:很多企业拿着开源模型做二次开发,对外就宣称“自研”,疯狂营销、抬高估值,等到被扒出来,就说“只是用了基座,我们做了很多优化”。这种做法,在法律上可能没问题,但在开源社区里,却是对模型开发者的不尊重,也混淆了“自研”和“二次开发”的概念。
其实说到底,Composer 2本身确实好用,不少开发者亲测,它比Claude Opus 4.6更稳、更懂编程上下文,低价策略也确实让利了用户。但“好用”和“原创”是两码事,一家估值直奔500亿美元的公司,拿着中国开源模型做基底,却连一句标注都没有,难免让人觉得不厚道。
这场风波也给整个AI行业提了个醒:开源的意义,是共享和共赢,而不是拿来主义、坐享其成。希望未来,所有基于开源模型的商业产品,都能大大方方标注基座来源,既尊重开发者的付出,也让用户看得明白。毕竟,真正的实力,从来不需要靠“藏着掖着”来证明,国产开源模型的崛起,也从来不需要靠别人的“隐性认可”来背书。
热门跟贴