今天,百度正式发布文心大模型 5.1。
有两件事我觉得值得唠唠,方向都挺有意思。
————
1、搜索能力
文心 5.1 以 1223 分登上 LMArena Search Arena 搜索榜,国内第一、全球第四。图三
更关键的是,它是这个榜单上目前唯一上榜的国产模型。
所谓「搜索能力」,早就不是我们以为的「上网搜答案」。
它考验的是模型能不能同时看多个信息源,再把结果整合成一个更靠谱、更一致的回答。
说白了,AI 胡编乱造的老毛病,这次多少能松点气了。
百度把自己最熟的老本行,重新打回了大模型时代的牌桌中央。
2、预训练成本
文心 5.1 用的是「多维弹性预训练」,文心 5.0 那会儿就放过风的一套技术。
带来的结果挺直接,总参数压到约 1/3,激活参数压到约 1/2。图四
预训练成本,只有业界同规模模型的约 6%。(ps..从deepseek开始,大家都在预训练成本上卷起来了- -)图五
翻了下今天放出的技术报告,做法其实挺巧:文心 5.1 不是从零起训,而是从文心 5.0 的「子模型族」里直接抽出一个最优子网,把 5.0 的知识完整继承过来。图六
再配合一套 Once-For-All 弹性训练框架,在深度、宽度、稀疏度三个维度上动态调节,一次训练就能产出多种规模的模型。
不重头训,成本自然就被压下去了。而且搜索榜上的成绩也说明:能力并没有被明显牺牲。
报告见:https://ernie.baidu.com/blog/posts/ernie-5.1-0508-release/
————
这次发布,正好在 5.13号 百度 Create 2026 大会前,很好奇现场还有什么大招。
百度在搜索这件事上的积累不是吹出来的,二十多年的老本行。
老本行碰上大模型这一波,还能整出哪些「花活」?
到时候我会和AI KOL们一起去现场,给大家带回第一手观察。
#LMArena #AI #AI大模型 #文心 #文心大模型 #百度Create大会2026
热门跟贴