跳转到主要内容

美团发布LongCat-Flash-Chat:5600亿参数AI模型开启高效新时代

美团发布LongCat-Flash-Chat:AI效率的突破性进展

美团正式推出LongCat-Flash-Chat——这款拥有5600亿参数的尖端AI大模型,为计算效率与性能树立新标杆。该开源模型采用创新的混合专家(MoE)架构,通过"零计算专家"机制每token仅激活186亿至313亿参数

架构创新

模型引入跨层通道设计,显著提升训练与推理并行度。在H800硬件上,LongCat-Flash仅经30天训练即可实现单用户推理每秒100token的惊人速度。其内置的PID控制器动态调整训练过程中的专家偏置,保持平均270亿激活参数以优化算力使用。

Image

卓越的智能体能力

凭借专有的Agentic评估集和多智能体数据生成策略,LongCat-Flash在智能体性能方面表现突出:

  • 荣登复杂场景基准测试VitaBench榜首
  • 工具使用任务中超越更大规模模型

Image

基准测试统治力

模型在常识评估中全面领先:

  • 86.50分于ArenaHard-V2(总排名第二)
  • 89.71分于MMLU(语言理解)
  • 90.44分于CEval(中文能力)

开源计划

美团开源LongCat-Flash-Chat的决策为开发者提供了研究与应用开发的绝佳机遇。

核心亮点:

  • 5600亿参数规模的MoE架构模型
  • 每秒100token的推理速度
  • **PID控制训练技术保障效率
  • 基准测试中顶尖的智能体表现
  • 全面开源促进社区发展

项目GitHub | 演示站点

喜欢这篇文章?

订阅我们的 Newsletter,获取最新 AI 资讯、产品评测和项目推荐,每周精选直达邮箱。

每周精选完全免费随时退订

相关文章

News

中国Kimi AI以效率突破惊艳达沃斯

在2026年达沃斯论坛上,月之暗面(Moonshot AI)的Kimi展示了其开源模型仅用美国竞争对手1%的计算能力就实现更优性能。总裁张宇婷阐释了工程优先思维如何实现这一飞跃——聚焦实际部署而非蛮力计算。该声明标志着中国正通过效率而非资源垄断展现日益增长的AI实力。

January 22, 2026
AI创新计算效率中国科技
News

MiniMax M2的大胆押注:为何坚持全注意力AI

MiniMax M2开发团队解释了为何在行业趋向线性和稀疏替代方案的背景下,他们仍坚持使用全注意力机制。虽然承认新方法可能节省资源,但他们认为当前的基础设施和性能需求使全注意力成为更明智的选择——至少目前如此。团队还透露了适应未来计算需求同时保持当前竞争优势的路线图。

November 6, 2025
AI架构注意力机制机器学习
DeepSeek-OCR推出面向AI的视觉记忆压缩技术
News

DeepSeek-OCR推出面向AI的视觉记忆压缩技术

DeepSeek发布了具备'视觉记忆压缩'机制的文档理解模型DeepSeek-OCR。这项创新技术通过模拟人类视觉记忆,将长文本压缩为图像,从而降低大语言模型的计算需求。初步测试显示其压缩率可达10倍,同时保持97%的原始文本保真度。

October 21, 2025
AI创新文档处理计算效率
百度ERNIE-4.5模型登顶Hugging Face排行榜
News

百度ERNIE-4.5模型登顶Hugging Face排行榜

百度最新开源的ERNIE-4.5-21B-A3B-Thinking模型荣登Hugging Face文本生成榜单首位。这款轻量级MoE架构模型在保持高参数效率的同时展现出卓越的推理能力,标志着中国AI生态系统的重大进步。

September 15, 2025
ERNIEAI大模型自然语言处理
Qwen3模型参数更少却实现10倍速度提升
News

Qwen3模型参数更少却实现10倍速度提升

阿里巴巴Qwen团队发布突破性AI模型,仅通过部分激活参数即可实现卓越性能。得益于创新的MoE架构和优化的训练方法,Qwen3-Next-80B-A3B-Instruct模型在保持质量的同时实现了10倍推理速度提升。

September 10, 2025
AI创新机器学习计算效率
Meta推出DeepConf技术,在不牺牲准确性的前提下降低LLM成本
News

Meta推出DeepConf技术,在不牺牲准确性的前提下降低LLM成本

Meta AI与加州大学圣地亚哥分校联合推出突破性技术DeepConf,通过基于置信度指标的动态推理路径过滤来优化大语言模型性能。该系统在保持复杂任务高准确性的同时,可降低高达85%的计算成本。

September 4, 2025
AI优化大语言模型计算效率