今日凌晨,Meta 发布旗下全新模型 Muse Spark,这是一款定位于高效率与个性化能力的生成式模型,支持文本、图像等多模态理解,并被设计为直接嵌入 Meta 自有产品体系中使用,如Facebook、Instagram、WhatsApp、Messenger 及 AI 眼镜产品,后续都将接入。
但 Muse Spark 真正让人感到意外的是,这次 Meta 并没有和此前的 Llama 一样做开源模型,而是转向封闭模型,并将其能力与平台深度绑定。实际上,模型的开源与闭源,一直都是 AI 厂商们意见分歧较大的两个选择。
(图源:Meta)
过去两年,大模型的发展逻辑主要围绕规模展开,参数量、训练数据和算力投入构成了竞争的核心指标。以 OpenAI 和 Anthropic 为代表的闭源阵营,在这一阶段建立了明显优势,因为模型训练需要耗费大量的资金,这些公司选择闭源,显然是要为商业化做更好的准备。
但以 DeepSeek、阿里的 Qwen,以及月之暗面的 Kimi 为代表的开源模型,在推理能力、成本控制以及部署灵活性上快速进步,逐渐缩小与头部闭源模型之间的差距。它们的开源模式,使越来越多企业开始尝试自建模型或私有化部署,开发者也更倾向于基于开源模型进行二次开发,使用成本明显低于封闭模型。
(图源:Meta)
当开源模型已经成为整个行业的新趋势,Meta 却选择在这个节骨眼上从开源转向闭源,这也不禁让人怀疑,开源真的已经强到可以定义行业了吗?闭源真的能让 Meta 过去烧掉的千亿美元成本得到回报吗?
开源模型对闭源模式的威胁太明显了
实际上,早在 2023 年 Meta 就成为开源模式的头号玩家,这一年发布的 LLaMA 系列模型逐步向开发者开放使用,这是第一次有接近主流水平的大模型以开源的模式与大众见面。
但真正意义上把开源这件事做到能直接威胁 OpenAI、 Anthropic的,是 DeepSeek。2025 年 1 月,DeepSeek-R1 正式发布,官方直接把它定义为 fully open-source(完全开源模型),并放出了技术报告、模型权重和 MIT 许可证,甚至连蒸馏出来的小模型也一起开放。
DeepSeek 还彻底改变了行业对成本的想象,官方表示,其模型只用两个月、不到 600 万美元就完成构建,而且用的是受限版本的英伟达 H800 芯片。DeepSeek 还曾透露过,R1 的训练成本约为 29.4 万美元。就是这么个「低成本」,DeepSeek 直接引起了股市大地震,英伟达曾一日蒸发达 5930 亿美元市值。
(图源:Deepseek)
同样是开源玩家,阿里的 Qwen 直接把开源做成了一整套体系,持续把不同尺寸、不同模态、不同任务方向的模型及时更新,让开发者可以第一时间用上最新的 Qwen 模型进行二次开发。据官方报告称,Qwen 模型家族在Hugging Face 上的累计下载量已经达到 7 亿次,成为当时全球使用最广泛的开源 AI 模型之一。
(图源:阿里)
更重要的是,阿里证明了开源模型是形成生态,也可以被企业接入、被开放者二次开发,甚至改成各种用途的模型等。
月之暗面的 Kimi 则是把这些能力更具象化到实战场景里。早期的 Kimi 是以强上下文被大众熟知,让模型可以稳定处理长文档和复杂信息,但在 2026 年,月之暗面开源 Kimi2.5,模型在多模态、工具调用和结构化输出上的能力得到加强,同时还具备了在同一个流程里完成大量不同任务的能力。
(图源:月之暗面)
在短短一年时间里,闭源模型曾经的优势都在被这些开源模型狠狠冲击。一是能力部分,以前闭源厂商只要比别人强很多,用户就愿意接受黑盒和高价,因为没有别的选择,而 DeepSeek、Kimi 等开源玩家把同样强的能力以更低的价格抛给市场,几乎没有企业和开发者能拒绝这样的诱惑。
二是产品的完整度。OpenAI、 Anthropic、Google Gemini 都有很完整的模型家族,问答、视觉、图像等,但 Qwen、Kimi 也开始补齐了这部分能力,也拥有了更完整的多模态能力。这就显得封闭模型的「高价」,更没有必要了。
此外,以 Anthropic 为代表的闭源模型厂商,一直以高度的控制力为名,但企业在尝试过可以用开源模型去做更适合自己的工作流程之后,对只开放 API 的这些闭源模型更加无感了。
拆开来看,开源模型是一步一步在拆掉闭源模型的「护城河」,一开始是技术垄断,然后是价格,最后是生态。所以,Meta 的 Muse Spark 突然定位为闭源模型这件事,才会突然引起争议,毕竟开源模型已经被主流市场认可,作为开源模型玩家的鼻祖之一,Meta 完全可以顺着这个优势做下去。但 Meta 也有身不由己的理由,那就是开源模型 Llama 始终没有得到应有的回报。
闭源模型们都在死守什么?
既然开源模型已经把能力、价格和生态一步步补了上来,为什么 OpenAI、Anthropic、Google,甚至最早把开源这扇门推开的 Meta,到今天反而都在把模型收得更紧?其实背后的原因也很好理解。
相比起开源模型,OpenAI、Anthropic 这些闭源模型玩家更早摸透了商业变现的本质。开源模型当然也能赚钱,但它的赚钱路径通常更散,可能是云资源、托管、工具链、企业定制,模型本身并不直接收钱。但闭源模型就不一样了,收费方式简单得多,API、订阅、企业服务,只要能给一套完整可用的服务,然后就是坐等收钱。
数据显示,OpenAI 2025 年 6 月的年化收入已经达到 100 亿美元,2026 年 1 月又进一步突破 200 亿美元;Anthropic 2025 年 5 月的年化收入达到 30 亿美元,到 2025 年 10 月又接近 70 亿美元,而且约 80% 的收入都来自企业客户。
(图源:CNBC)
此外,就从产品本身来说,闭源模型还存在一定的优势。开源模型这两年进步很快,很多能力已经足够强,但它大多数时候还是一段底层能力,需要开发者和企业自己去部署、改造、接进业务系统里,最后才能变成一个真正能用的东西。但闭源模型就是直接从厂商手里买一整套服务,即便价格高一些,那也是到手可用的程度。
因此,闭源厂商死守的其实就是已经成型的产品形态和不会被别人改动的入口,而且这套方案已经有明显的盈利能力,自然也就没必要轻易放弃。同样地,Meta 在 Llama 上,确实把开源这件事往前推了一大步,受到了很多开发者的支持,但这些年狂砸千亿美元,最终也是没有看到什么实质性的回报。
再且说,Muse Spark 其实本就倾向于依赖 Meta 旗下社交平台与应用数据打造的模型基地,对于这样的一个模型,Meta 更没有理由去开源给开放者、企业随意更改使用。
开源还是闭源,这是一个问题
实际上,到了今时今日,开源与闭源已经不是技术上的争执,毕竟两者的能力基本打成平手,越新的模型在某些能力上就会越有优势,无关开源/闭源。
李彦宏算是国内最早公开站到闭源这一边的人。早在 2024 年,他就明确说过,开源大模型的意义没有外界想象得那么大,理由也很直接,生成式 AI 和 Linux、Android 这种传统开源软件不一样,普通用户根本看不到参数是怎么变化的,也不是那么在乎。在李彦宏看来,闭源模型才有更强的商业化能力,只有能持续赚钱,厂商才有足够的算力投入和人才储备把模型继续往前推。
(图源:人工智能大会论坛/百度 CEO 李彦宏)
相反,马斯克却更支持大模型开源,虽然更多人认为这只是他用来恶心 OpenAI 的一个手段,但他也确确实实把 Grok 的模型开源了。
当然,Grok 确实在做开源模型,但马斯克也有自己的小心思。每一代 Grok 新模型发布之际,马斯克都选择再择机开源旧版本,本质上还是先把最核心的能力握在自己手里,等新版本推出后,再把前一代模型放出去。说白了,他并没有真的放弃闭源逻辑,只是把「开放」变成了竞争策略的一部分。
(图源:路透社)
而文心大模型也在 DeepSeek 问世不久后,也就是 2025 年的 6 月,正式把文心 4.5 开源。虽然这一波显然是在「打脸」李彦宏曾经的发言,但开源也确实帮助文心大模型快速扩散出去,吸引到更多开发者加入。
因此,在雷科技看来,开源和闭源天生就不是绝对对立的。开源更容易推动技术扩散,大量开发者加入进来,推动行业的发展,也更容易把模型做成基础设施,让中小企业受益。至于闭源则更容易形成可持续的投入回路,把产品、算力、数据和责任绑在一起,就像李彦宏说的,只有盈利才有办法继续投入。两种模式都各有各的道理,它们出发点不同,视角自然也就不同。在未来的很长一段时间里,开源/闭源都不会被其中一方打败而彻底退场,但哪个方向更具优势,或许还要时间给我们答案。
热门跟贴