京东发布高效能JoyAI-LLM-Flash AI模型,实现突破性效率
京东凭借高效JoyAI-LLM-Flash模型实现AI飞跃
中国科技巨头京东本周在热门平台Hugging Face上开源其最新人工智能模型JoyAI-LLM-Flash,引发广泛关注。此次发布标志着在开发更强大、更高效AI系统的竞赛中又向前迈进了一步。
令人印象深刻的技术规格
该模型拥有48亿参数,其中30亿在运行期间处于活跃状态。为便于理解,京东使用惊人的20万亿文本token训练JoyAI-LLM-Flash——相当于处理数千个图书馆的信息量。
"最让我们兴奋的不仅是规模,"一位因公司政策要求匿名的京东AI研究员解释道,"而是我们如何让如此庞大的模型运行得如此高效。"
突破性优化框架
其秘诀在于京东创新的FiberPO优化框架,该框架借鉴了数学纤维丛理论的概念并将其应用于强化学习。结合其专有的Muon优化器和密集多token预测(MTP)技术,团队解决了传统模型在扩展时普遍存在的稳定性问题。
结果不言而喻:与非MTP版本相比,JoyAI-LLM-Flash实现了1.3至1.7倍的吞吐量提升——意味着在相同时间内可以处理更多数据。
为性能而生的架构设计
底层架构上,JoyAI-LLM-Flash采用分布在40层的专家混合(MoE)架构。这种设计使模型的不同部分能够专注于不同任务同时保持效率。该系统支持惊人的128K上下文长度(一次可考虑的信息量)并理解129K词汇量。
行业分析师认为此次发布表明京东不仅是一家电商企业——它正在成为基础AI技术开发领域的重要竞争者。
关键要点:
- 规模: 48亿参数模型基于20万亿token训练
- 创新: FiberPO框架解决扩展不稳定性
- 效率: 相比传统方法提升1.3-1.7倍吞吐量
- 架构: 40层MoE设计支持多样化应用
- 能力: 在推理和编程任务中表现优异



