Mistral AI全新Small4模型:开发者多功能利器
Mistral AI以Small4发布突破创新
欧洲AI研究实验室Mistral通过最新发布的Small4模型持续在开源社区掀起波澜。这不仅是常规迭代更新,更代表着多功能AI能力的重大飞跃。
全能合一模型
Small4的突出特点在于其卓越的多功能性。开发者首次能在单一模型中同时获得旗舰级推理能力、多模态理解能力和强大的编程功能。
"我们消除了在专业模型间做选择的需求,"Mistral发言人解释道,"Small4在多个领域提供无妥协的综合性能表现。"
技术解析
该模型的卓越能力源自其先进架构:
- MoE设计:采用专家混合架构,总参数量达1190亿(实际活跃参数仅60亿)
- 扩展内存:256k超大上下文窗口轻松处理技术文档和大型代码库
- 双模式:可根据需求在快速响应与深度推理模式间切换
- 开放访问:基于Apache 2.0许可证发布,实现最大社区可及性
性能指标显示较前代有显著提升。在延迟优化模式下,完成时间缩短40%,而吞吐量模式相较Small3提升了三倍请求容量。独立基准测试显示其在关键测试中与OpenAI的GPT-OSS120B表现相当。
硬件要求
为有效运行Small4,Mistral建议:
- 最低配置:4× HGX H100或1× DGX B200
- 最优配置:4× HGX H200或2× DGX B200方案
硬件要求反映了模型的精密程度,但对专业开发者和机构仍具可及性。
对AI发展的意义
此次发布巩固了Mistral作为欧洲领先开源AI实验室的地位,同时挑战了大型科技公司在该领域的主导权。通过将多种功能整合至高效单一模型,Small4有望简化开发流程并加速创新。
核心要点:
- Mistral首个真正多功能模型:整合推理、多模态和编程特性
- MoE架构实现性能与效率平衡(总参数1190亿/活跃参数60亿)
- 较前代显著性能提升(完成时间加快40%)
- 基于Apache 2.0协议开源,便于社区访问和开发


