2025 年 6 月 30 日,百度正式在国内领先的开源平台 GitCode 发布文心大模型 4.5 系列开源模型。此次开源涵盖了从数亿到数百亿参数的多种规模,包括 47B、3B 激活参数的混合专家(MoE)模型,与 0.3B 参数的稠密型模型等共 10 款模型,同时实现预训练权重和推理代码的完全开源。
文心大模型 4.5 开源系列已可在飞桨星河社区、HuggingFace 等平台下载部署使用,百度智能云千帆大模型平台也提供了开源模型 API 服务,方便开发者获取与应用
。其权重按照 Apache 2.0 协议开源,支持开展学术研究和产业应用,为企业和开发者提供了从模型下载到微调再到部署的一整套技术方案,降低了产业级应用的门槛
。

在技术层面,文心大模型 4.5 系列针对 MoE 架构提出了创新性的多模态异构模型结构。通过跨模态参数共享机制,实现了文本、图像等不同模态间的知识融合,同时为各单一模态保留专用参数空间,确保单一模态任务性能不受影响。该结构适用于从大语言模型向多模态模型的持续预训练范式,在保持甚至提升文本任务性能的基础上,显著增强了多模态理解能力。
这些模型均使用飞桨深度学习框架进行高效训练、推理和部署,在大语言模型的预训练中,模型 FLOPs 利用率(MFU)达到 47%
。实验结果显示,文心大模型 4.5 系列在多个文本和多模态基准测试中达到 SOTA 水平,尤其在指令遵循、世界知识记忆、视觉理解和多模态推理任务上效果突出
。在文本模型方面,其基础能力强、事实准确性高,在多个主流基准评测中超越
DeepSeek-V3、Qwen3 等模型;在多模态模型方面,优于闭源的 OpenAI o1,其中文心 4.5-VL-28B-A3B 多模态模型是目前同量级最好的多模态开源模型
。
此次百度一次性推出 10 款文心大模型 4.5 系列开源模型,在独立自研模型数量占比、模型类型数量、参数丰富度、开源宽松度与可靠性等关键维度上,均处于行业领先位置。百度基于飞桨还同步升级发布了文心大模型开发套件 ERNIEKit 和大模型高效部署套件 FastDeploy,为开发者提供开箱即用的工具和全流程支持,实现了框架层与模型层的 “双层开源”,为整个行业树立了新的标杆。
文心大模型 4.5 系列的开源,将进一步推动 AI 技术的发展,为更多企业和开发者提供强有力的支持,加速 AI 创新速度,助力人工智能产业的繁荣与发展。未来,预计将有更多基于文心大模型的创新应用涌现,为各行业带来新的发展机遇和变革。
发表评论 取消回复