MiniMax发布专为智能体设计的M2推理模型
MiniMax发布专为智能体设计的M2推理模型
在AI行业从参数竞争转向效率创新的关键时刻,MiniMax发布了其最新的开源推理模型M2。该模型于10月27日推出,专为智能体设计,定位为下一代AI应用的基础工具。
技术规格与性能
M2模型采用混合专家(MoE)架构,拥有惊人的2300亿参数。然而每次推理仅激活100亿参数,实现了每秒100个token的输出速度。这种效率使M2特别适合实时交互场景。

战略调整:缩小上下文窗口
与上一代产品M1相比,M2的一个显著变化是缩小了上下文窗口——从100万个token减少到204,800个token。这一调整体现了MiniMax在长文本处理、推理速度和部署成本之间寻求平衡的务实态度。虽然M1的百万token能力设定了基准,但其资源密集型特性限制了实际应用。相比之下,M2优先考虑高频智能体任务,确保在不影响成本效益的情况下实现最佳性能。
专为智能体设计
M2模型在需要**行为决策、多轮任务规划和环境交互的场景中表现出色。其架构增强了推理连续性和响应效率——这些是构建真正自主AI智能体的关键属性。开发者可以利用M2创建:
- 具有复杂任务链的虚拟助手
- 自动化工作流机器人
- 集成到企业系统中的决策型智能体
M2的开源特性进一步降低了开发者定制智能体解决方案的门槛。
AI智能体的未来
MiniMax将M2定位为"Agent时代的推理基础"随着AI从单纯的问答工具转变为能够独立行动的主动型智能体像M2这样的模型强调了速度和成本效益的重要性而非单纯的上下文长度.
关键点:
- 2300亿参数,每次推理仅激活100亿.
- 每秒100个token,适合实时交互.
- 缩小的上下文窗口(204.8K token)优化了速度和成本.
- 开源模式加速定制化智能体的开发.
- 面向需要快速决策的下一代AI应用.





