Mistral AI的Small4:开发者多面手,全能动力引擎
Mistral AI通过Small4发布再创新高
在竞争激烈的开源AI模型领域,欧洲实验室Mistral AI凭借快速进步持续令人瞩目。其最新发布的Small4标志着一个重要里程碑——首个真正全能的大型语言模型,开发者无需在专业能力之间做取舍。

技术突破
Small4引入多项创新特性:
- 高效架构:采用混合专家(MoE)设计,总计1190亿参数(仅60亿参数实时激活),在保持顶级性能的同时避免过高计算成本
- 扩展上下文:256k token窗口意味着可一次性处理完整技术手册或大型代码库
- 双模式:开发者可在简单查询的快速响应与复杂问题的深度推理之间切换
最令人振奋的是其基于Apache 2.0许可证的开源属性——这份赠予开发者社区的礼物与众多专有方案形成鲜明对比。
卓越性能表现
基准测试表明Small4不仅全能——更实力强劲。与前代相比:
- 延迟优化模式下响应时间降低40%
- 优化配置下吞吐量提升三倍
该模型与行业领导者相比毫不逊色,在核心评估中与OpenAI的GPT-OSS120B持平,同时保持完全开源。
硬件要求
要有效运行Small4,Mistral建议:
- 最低配置:4× HGX H100或1× DGX B200系统
- 理想配置:4× HGX H200或2× DGX B200配置
这些要求使Small4对资深开发者触手可及的同时,仍推动硬件边界。
核心亮点:
- 首个真正全能模型:整合推理、多模态与编程能力于一体
- MoE架构实现性能与效率平衡(1190亿总参数/60亿激活参数)
- 超大256k上下文窗口轻松处理复杂技术资料
- Apache 2.0许可证开源促进社区开发
- 媲美GPT-OSS120B等专有模型的竞争力表现


