京东发布全新强大AI模型JoyAI-LLM-Flash
京东以JoyAI-LLM-Flash加码AI布局
在中国人工智能雄心日益彰显的背景下,京东向开源社区发布了其最新大语言模型。这款通过Hugging Face平台在情人节亮相的JoyAI-LLM-Flash,标志着这家电商巨头的重大技术突破。
技术突破
该模型拥有48亿参数(其中30亿为活跃参数),基于令人瞠目的20万亿文本token训练而成。开发者表示,这些规格使其在尖端知识理解、逻辑推理乃至编程任务方面展现出"卓越性能"。
最令AI研究者兴奋的是京东创新的FiberPO优化框架。通过将数学纤维丛理论应用于强化学习——结合其专有的Muon优化器和密集多token预测技术——该公司宣称解决了传统模型扩展中顽固的稳定性问题。
"吞吐量提升非常显著,"一位熟悉该技术的行业分析师指出,"与非MTP版本相比,我们观察到1.3至1.7倍的加速处理"
架构优势
该模型采用分布在40层的专家混合(MoE)架构,支持惊人的128K token上下文长度,并使用129K词的词汇表——这些规格使其跻身当前最强大的开源模型之列。
对京东而言,此次发布不仅是技术里程碑。"这展现了他们不甘仅做电商玩家的决心,"清华大学AI研究员李伟博士评价道,"他们正将自己定位为基础性AI发展的核心贡献者"
对开发者的意义
JoyAI-LLM-Flash的开源特性可能加速多个行业的创新:
- 电商应用:更精密的产品推荐和客服机器人
- 内容生成:更高质量的汉语语境自动化写作
- 编程辅助:增强型代码补全和调试工具
该模型的稳定性改进对寻求部署大规模AI解决方案的企业尤其宝贵,可避免不可预测的性能波动。
核心要点:
- 京东发布基于20万亿token训练的48亿参数JoyAI-LLM-Flash模型
- 创新FiberPO框架提升稳定性与效率(吞吐量提升1.3-1.7倍)
- 采用含40层专家混合架构,支持128K上下文长度
- 开源可用性或将催生新商业应用




