Liquid AI推出LFM2-8B-A1B,大幅提升移动AI效率
Liquid AI发布突破性边缘AI模型
Liquid AI正式推出LFM2-8B-A1B——一款颠覆性的混合专家(MoE)模型,重新定义了边缘AI的能力边界。通过创新的稀疏激活机制,该模型在保持高性能的同时显著降低了计算需求。

技术创新
LFM2-8B-A1B具备以下特性:
- 总计83亿参数,每令牌仅激活15亿参数
- 融合18个门控短卷积块与6组查询注意力块的混合架构
- 稀疏MoE前馈网络含每层32个专家(top-4激活)
- 支持32K上下文长度及英语、中文、西班牙语等多语言处理
该模型采用带自适应偏置的归一化Sigmoid路由器,实现了显著的负载均衡——这是边缘部署的关键突破。
训练与性能指标
基于约12万亿token预训练的模型展现出媲美传统3-4B参数密集模型的性能:

基准测试亮点:
- 知识能力: MMLU-Pro得分37.4(较前代提升11.5分)
- 数学能力: GSM8K 84.4, MATH500 74.2
- 多语言能力: MGSM 72.4, MMMLU 55.3
- 编程能力: HumanEval+ 69.5, LiveCodeBench v6 21.0
该模型在多轮对话、创意写作和检索增强生成任务中表现优异。
部署优势
LFM2-8B-A1B展现出显著的加速效果:
- 解码速度比同类机型快5倍(移动处理器环境)
- 针对AMD Ryzen AI9HX370和三星Galaxy S24 Ultra优化
- 支持int4量化(∼4.7GB)和FP16(∼16.7GB)版本
- 兼容llama.cpp和vLLM等主流框架
根据LFM开放许可v1.0协议的开源版本包含Hugging Face权重及Colab微调笔记本。
核心要点:
✔️革命性稀疏激活机制降低约80%计算需求 ✔️性能匹敌两倍体积的传统密集模型 ✔️针对资源受限设备的实时交互优化 ✔️开源特性加速边缘AI普及 ✔️验证小规模MoE架构的可行性




