不知道大家还记不记得,早在今年的2月份,百度官方宣布将在6月30日开源旗下大模型,一石激起千层浪。

就在6月30日今天,百度兑现承诺,一口气开源文心4.5系列10款大模型,包含混合专家架构、文本与多模态能力,参数从0.3B至424B不等。

这不仅是国内史无前例的一次规模化开源,也是放眼全球都极具竞争力的一次技术释放。

某种程度上,这次开源是令百度大模型与国际巨头并肩背后“全栈式AI”技术能力的最新体现,也为AI应用爆发按下快进键。

高明的舵手,会适时转弯。

一、文心4.5开源:性能才是硬道理?

此次百度开源文心4.5系列,其目的显然不限于技术开放本身,更在于通过开放,最大化地推动整个AI生态的繁荣与应用落地。

该系列包含了混合专家(MoE)模型和稠密(Dense)模型两大类别,参数量覆盖从0.3B到424B的范围,实现了从轻量级边缘部署到超大规模云端推理的全面覆盖。

百度方面强调,其预训练权重和推理代码的完全开源,在独立自研模型数量占比、模型类型、参数丰富度以及开源宽松度与可靠性等关键维度上,均已达到行业领先水平。

这种全面性,对于不同需求和资源限制的开发者而言,无疑提供了极大的灵活性和选择空间。

在文本模型方面,百度称其在多个主流基准评测中超越了DeepSeek-V3和Qwen3

这并非简单的“跑分”优势,而是意味着其在基础语言理解、事实准确性、指令遵循能力、复杂推理以及编程能力上具备了更强的实用性和可靠性。

文心4.5预训练模型在主流基准测试中表现优异:

文心多模态后训练模型(支持思考、关闭思考)在多个多模态基准测试中达到SOTA水平

对于企业级应用和开发者而言,这些能力的提升直接转化为更高效、更精准的AI驱动解决方案。

而在更具前瞻性的多模态能力上,文心4.5系列展现了卓越的视觉感知能力和丰富的视觉常识,实现了“思考与非思考的统一”。

在视觉常识、多模态推理、视觉感知等主流多模态大模型评测中,百度披露的数据显示其性能甚至优于闭源的OpenAI o1

尤其值得关注的是,即使在轻量级模型上,文心4.5也表现出惊人的竞争力,体现了“以小博大”的策略。

比如,文心4.5-21B-A3B-Base文本模型的效果与同量级的Qwen3相当;而文心4.5-VL-28B-A3B多模态模型更是同量级中表现最优,甚至能与更大参数量的Qwen2.5-VL-32B不相上下

对于广大开发者而言,这意味着能够以更低的算力消耗和部署成本,获得高性能的大模型能力,这无疑将大幅降低AI应用的门槛,促进中小企业和个人开发者参与到大模型生态的建设中,激发长尾创新。

这种对轻量级高性能模型的关注,也符合当前AI模型部署走向边缘化、嵌入式的趋势。

此外,开发者可以通过Hugging Face、飞桨星河社区等主流开源平台轻松下载和部署模型,也可以选择在百度智能云千帆大模型平台使用开源模型的API服务。

这种多渠道、灵活的接入方式,不仅便利了开发者,也体现了百度在推动开源生态繁荣上的决心和开放性,旨在最大限度地降低使用门槛。

二、全栈技术底气:抢占战略制高点

文心4.5系列的全面开源,并非一时调整,而是百度十多年来在AI领域深耕细作、“全栈”技术布局的必然结果。

这种全栈优势,覆盖了芯片、框架、模型到应用的各个层面,形成了一个高效的反馈闭环,为开源策略提供了坚实的支撑,同时也构筑了其独特的竞争壁垒。

首先是算力基础设施

大模型的训练和推理对算力有着近乎苛刻的需求,这被普遍视为AI发展的关键瓶颈之一。百度自研的昆仑芯在性能和性价比上具备优势,被认为是降低单位算力成本的重要途径。根据公开资料,昆仑芯能在更少的计算资源下运行大规模模型,从而直接降低了训练和推理所需的计算量和成本。

更关键的是,百度智能云成功点亮国内首个自研昆仑芯三代万卡集群,并计划进一步点亮3万卡集群。

这种大规模集群的建设,不仅提供了充足的算力供应,更通过任务并行调度、弹性算力管理等方式,极大提高了计算资源利用率,避免算力闲置,从而降低了整体算力成本。

在稳定性方面,百度自研的「BCCL(百度集合通信库)」能够快速定位故障并提供自动化容错能力,将故障恢复时间从小时级降低到分钟级,确保集群有效训练率达到98%。

这种对底层算力设施的掌握和优化能力,是支撑大规模模型训练和稳定推理的根本保障,也是百度选择开源的深层底气。

其次是深度学习框架飞桨

作为百度的核心技术资产,飞桨为文心大模型的训练、推理和部署提供了强大支撑。

今年4月1日,深度学习平台飞桨宣布新一代飞桨框架3.0正式发布,其核心亮点在于“动静统一自动并行”等五大核心技术创新,旨在大幅降低大模型开发训练成本,让算法创新回归核心价值。

飞桨框架3.0的“训推一体”设计理念,打破了训练与推理的割裂状态,通过全方位深度优化,能够支持众多开源大模型进行高性能推理,据称,在DeepSeek-R1等模型上,飞桨的单机部署吞吐量甚至能提升一倍

这种效率提升,直接关系到开发者的实际使用成本和开发效率。

李彦宏曾在2024年初的财报电话会上透露,文心大模型的推理成本已降至一年前的1%

这一数据如果属实,无疑是行业内的重要突破,它不仅大幅降低了百度自身的运营成本,也为企业和开发者基于文心大模型进行开发和二次开发提供了更低的成本门槛,从而加速了模型的商业化落地。

飞桨框架与文心大模型的协同优化,正是百度实现【框架层+模型层”双层开源】的关键。

这种模式不仅仅是开放了最先进的模型,更提供了支撑模型运行和优化的底层工具,这对于构建一个活跃、健康的开发者生态至关重要。

截至2024年10月,飞桨文心生态已凝聚1808万开发者,服务了43万家企事业单位,创建了101万个模型,这些数据都印证了其生态的活力和影响力。

这种从底层到应用的全面开放策略,旨在吸引更广泛的参与者,形成强大的网络效应。

三、应用驱动:开源的最终目的在于价值落地

大模型开源与闭源的路线之争,最终都要回归到一点:能否解决现实问题,能否产生真实价值

从单纯的技术能力竞赛转向实际应用落地,从实验室走向市场,真正赋能千行百业,越来越成为必然。

文心4.5的开源,正是为了加速AI应用的爆发,将百度内部已验证的成功经验推向外部,形成“内部势能外溢”的效应。百度内部已率先基于文心4.5进行了多项应用升级,并取得了显著成果,这些案例成为了文心4.5能力落地的最佳证明。

最典型的例子是近期火爆出圈的罗永浩数字人直播带货的成功

这场直播首秀创下超1300万人次观看、GMV突破5500万元的行业新纪录,甚至在部分核心品类带货量反超真人直播。

这类数字人具备声形超拟真、内容更专业、互动更灵活的特点,并能根据直播间实时热度和转化情况,灵活调度助播、场控、运营等角色,真正实现了“一个人就是一支营销团队”的效能,极大地提升了直播效率和转化率。

这同时也印证了李彦宏在今年4月百度Create开发者大会上的预判:“2025年最令人激动的突破性应用之一,就是AI数字人。”

IDC报告显示,百度居中国AI数字人市场份额第一,这与多模态大模型的底层支撑密不可分,也预示着数字人市场即将迎来爆发。

除了数字人,百度旗下的其他AI应用产品也正在基于文心4.5进行功能升级,展现了模型赋能业务的多元化。

比如说,文心快码发布了独立IDE,成为行业首个多模态、多智能体协同AI IDE,集成了文心最新模型,为开发者提供更强大的智能交互体验,极大地提高了编程效率和智能辅助水平。

文小言也升级了多模型调度、图片问答等能力,通过整合百度自研模型(如文心X1、文心4.5)并接入DeepSeek-R1、可灵等第三方模型,实现了多模型间的智能协同,提升了用户在多模态交互场景下的体验。

这些内部应用的成功实践,不仅验证了文心4.5在实际业务场景中的效能,也为外部开发者提供了可复制的经验和可参考的落地路径,加速了AI能力的普惠和商业化进程。

从更广阔的视角来看,开源的趋势正在全球范围内加速,这是一种行业共识的形成。

Gartner在2025年中国人工智能(AI)十大趋势中明确指出,开放式GenAI模型已成为中国超大规模云和AI提供商的普遍做法,并预测到2026年,中国50%的AI产业生态将基于开放式GenAI模型构建

这表明开源已不仅仅是技术选择,更成为一种不可逆转的产业趋势,它将极大促进创新、技术进步和AI普惠。

四、全球AI格局的开放转向

百度文心4.5的开源,正值全球AI巨头策略调整的关键时期,尤其是在OpenAI和谷歌两大玩家的动向中,这种“开放”转向表现得尤为明显,描绘出了一场没有硝烟的AI生态博弈。

长期以来,OpenAI以其闭源的GPT系列模型主导市场,一度被视为“闭源模型”的图腾。然而,其策略正在发生显著变化。

今年1月底,OpenAI CEO萨姆·奥特曼罕见表态称,OpenAI过去在开源AI软件方面“一直站在历史的错误一边”,并承认内部正在讨论公开AI模型的权重等事宜。这种公开承认“错误”的姿态,本身就极不寻常。

此后,OpenAI相继开源了AgentSDK、轻量级编程智能体Codex CLI(兼容o3、o4-mini),并在4月25日深夜突然宣布时隔6年再次推出开源大模型,并向所有用户开放其核心工具“深度研究”(Deep Research)的轻量版本

虽然此次发布的开放权重模型,与完全公开训练代码和数据仍有差异,但已非常接近开源社区主流模式,被业内视为OpenAI在开源与闭源战略平衡中的关键转折。

这种转变并非空穴来风,其背后有着深刻的驱动因素。来自中国的竞争加剧,特别是中国开源模型的崛起,无疑给OpenAI带来了巨大压力。

奥特曼曾坦言,“OpenAI未来仍会开发出更好的模型,但领先优势将比往年有所减少。”

这种略显“不自信”的表态,正是中国大模型力量快速崛起正在改变全球AI格局的鲜明例证。

甚至有媒体猜测,2月路透社爆料百度将在3月中发布文心4.5的消息后,OpenAI在当日凌晨发布GPT-4.5,但其性能被吐槽“差强人意”,发布略显仓促,颇有应对之意,反映出市场竞争的激烈程度和信息快速流动的压力。

谷歌在开源方面也持续发力。

今年2月,谷歌宣布其最新AI模型套件Gemini 2.0正式向所有用户开放使用

3月,谷歌更是推出了开源多模态大模型Gemma 3,其主打低成本、高性能的特点,并通过与Hugging Face、Kaggle等平台的无缝集成,以及与英伟达合作优化GPU推理性能,试图构建“模型+工具链+社区”的全栈优势,以期在开源生态中占据制胜关键。

谷歌的这些动作,都表明其在开源AI领域的重大战略升级,也预示着其在全球AI生态竞争中的新姿态。

这足以表明,一场中美AI开源生态博弈正在较量中。

无论是为了扩大新技术采用率,吸引更多开发者共建生态,还是为了应对日益激烈的市场竞争,开源都已成为推动AI技术进步和产业繁荣的有效路径。

五、高明的舵手,会适时转弯。

百度文心4.5系列的全面开源,不仅展现了其深厚的技术积累和前瞻性的战略布局,更是对当前全球AI发展趋势的积极响应。

在【发力AI应用】的下半场,技术本身固然重要,但最终的衡量标准,在于其能否大规模解决现实问题,能否在千行百业中落地生根,创造真实的商业和社会价值。

李彦宏曾言:“开源有助于扩大新技术的采用率,更快推进规模化应用爆发。”

当大模型的能力日益强大,且门槛因开源而不断降低时,真正的竞争将聚焦于如何将这些强大的模型能力转化为用户触手可及、解决实际痛点的智能应用。

这需要对垂直行业的深刻理解,对用户需求的精准把握,以及强大的工程化和产品化能力。

在国内众多AI企业中,百度是少数几家拥有全场景布局的企业之一,因为它拥有自己的平台和生态系统逻辑,并占据着独特的生态位,这些优势决定了其对大模型技术的态度。

这场由中国力量积极参与的开源浪潮,无疑将加速全球AI格局的演变。

它不仅推动了模型性能的提升,更带动了开发者生态的繁荣,促进了更多创新应用的涌现。

正如历史上硅谷巨头的发展一样,企业决策从来不是一成不变的,而是基于技术、市场的动态权衡。

百度此次选择全面开源,正是其在当下市场环境下,对技术成熟度、市场需求和生态建设进行综合考量后的战略选择。

在新的AI纪元里,开放、协作和实际落地将成为衡量AI技术真正价值的关键标准。

未来的AI,不再是象牙塔里的理论模型,而是渗透到各行各业,赋能个体与组织,推动社会进步的强大力量……