百度ERNIE-4.5模型登顶Hugging Face排行榜
百度ERNIE-4.5模型称霸Hugging Face排行榜
百度文心大模型家族迎来重大突破,其最新发布的ERNIE-4.5-21B-A3B-Thinking迅速攀升至Hugging Face文本生成模型榜首,同时位列该平台整体模型榜单第三名。这一成就凸显了中国在全球AI领域日益增长的影响力。
技术规格与创新
该模型采用先进的混合专家(MoE)架构,总参数量达210亿但每个token仅激活30亿参数。这种稀疏激活方式显著降低计算需求的同时保持高性能输出。值得注意的是,该模型支持惊人的128K长上下文窗口,使其在逻辑推理和学术分析等复杂任务中表现尤为突出。

与大多数依赖PyTorch的竞争对手不同,百度使用自研的PaddlePaddle深度学习框架开发了ERNIE-4.5。这一独立框架增强了多模态任务兼容性和硬件优化能力,使百度成为与谷歌并列的少数使用自主框架进行大模型训练的企业之一。
性能基准与能力
基准测试表明,ERNIE-4.5在以下多个领域表现媲美行业领先者如Gemini 2.5 Pro和GPT-5:
- 逻辑推理
- 数学解题
- 科学分析
- 编码任务
- 文本生成
尽管总参数量较少,该模型在数学推理基准测试(BBH和CMATH)上仍优于Qwen3-30B等更大规模模型,展现出卓越的参数效率。
其他特性包括:
- 高效的API工具调用功能
- 长上下文处理中减少幻觉现象
面向全球应用的中英双语优化 开源社区反响热烈,Hugging Face平台下载量激增。开发者可使用vLLM、Transformers 4.54+和FastDeploy等流行工具集成该模型。
战略意义与未来展望
Apache 2.0许可的发布大幅降低了AI应用门槛,同时强化了百度在开源AI开发领域的地位。此前6月发布的文心4.5家族其他十款模型已共同展现了中国在MoE架构和推理优化方面的进展。
该模型代表了一种范式转变——证明深度推理无需万亿级稠密参数即可实现。其高效设计使高性能AI更易被资源有限的开发者获取,加速了实验室之外的实际应用落地。
关键要点:
- 顶尖性能表现: Hugging Face文本生成类目排名第一
- 高效架构设计: MoE结构使每个token仅激活210亿参数中的30亿
- 技术自主性: 基于百度飞桨框架开发
- 实际应用优势: 在推理、数学、编码领域表现优异且减少幻觉
- 开放生态: Apache 2.0许可证促进商业用途和创新





