百度文心5.1发布:预训练成本仅业界6%,搜索能力登顶全球第四
5月9日,百度正式发布新一代基础大模型文心大模型5.1。这次的重点不是参数堆砌,而是一个让行业侧目的数字:预训练成本只有业界同规模模型的约6%。
这不是噱头。文心5.1采用了百度在文心5.0时期提出的「多维弹性预训练」技术,核心思路是一次训练生成多种规格模型。简单理解:传统方法训练一个70B模型需要从头跑一遍,而文心5.1通过动态采样机制,在一次预训练过程中同时优化大量具有不同深度、专家容量的子模型,最终从矩阵中提取最优子网络。
结果是:总参数压缩至约1/3,激活参数压缩至约1/2,但多项基准测试依然领先。
在国际权威大模型竞技场LMArena上,文心5.1以1223分登上搜索榜国内第一、全球第四——这也是榜单中唯一上榜的国产模型。4月30日的预览版更是以1476分登顶文本榜国内第一,超越了GPT-5.5和DeepSeek-V4-Pro。
值得注意的是,这里的「搜索能力」不是传统网页搜索,而是指大模型对多源信息的快速检索、整合与生成能力。在Agent应用场景中,这种能力直接决定了智能体能否准确调用外部知识。
文心5.1已在百度千帆平台和文心一言官网同步上线。百度将于5月13日至14日在北京举办Create 2026 AI开发者大会,届时将展示更多产业落地进展。
大模型竞争进入深水区,「低成本高性能」正在成为新的赛点。
Create大会值得关注,看看百度这次能拿出什么产业化落地的东西。
搜索能力提升对Agent应用很重要。以前Agent调用外部知识总差点意思,现在看起来有戏了。
预训练成本6%这个数字很猛。成本降到这个程度,边缘部署的可行性一下子就打开了。小模型+低成本推理才是未来主流。
作为一个小白,看LMArena榜单终于有国产模型上榜了,开心!