6月30日,百度正式开源文心大模型4.5系列模型,涵盖47B、3B激活参数的混合专家(MoE)模型,与0.3B参数的稠密型模型等10款模型,并实现预训练权重和推理代码的完全开源,PPIO在第一时间完成接入并上线。
实验结果显示,该系列模型在多个文本和多模态基准测试中达到 SOTA 水平,在指令遵循、世界知识记忆、视觉理解和多模态推理任务上效果尤为突出。
据了解,PPIO是致力于为企业及开发者提供高性能的 API 服务平台,拥有丰富的开源模型“超市”,目前已上线 DeepSeek R1/V3、 DeepSeek-Prover-V2-671B、MiniMax、Qwen 等系列模型,仅需一行代码即可调用。并且,PPIO 通过 2024 年的实践,已经实现大模型推理的 10 倍 + 降本,实现推理效率与资源使用的动态平衡。