阿里云扩展Qwen3-VL模型家族,新增2B和32B版本
阿里云通过新增Qwen3-VL模型强化开源AI布局
在竞争激烈的人工智能领域,阿里云对其Qwen3-VL模型家族进行了重要扩展,新增两款密集模型:2B和32B。10月22日发布的这两款新品实现了产品线从轻量级到超大规模的全覆盖。
全面的模型生态系统
更新后的Qwen3-VL系列现包含:
- 四款密集模型(2B、4B、8B和32B)
- 两款混合专家(MoE)架构模型(30B-A3B和235B-A22B)
- 参数规模从20亿到2350亿不等
每个模型提供双重版本:
- Instruct版:针对指令跟随任务优化
- Thinking版:增强推理能力
优化的性能选项
为满足高效部署需求,阿里云推出了12个FP8量化版本。这些变体:
- 内存需求降低达40%
- 显著减少推理延迟
- 保持具有竞争力的准确率水平
量化技术可实际应用于:
- 边缘计算设备
- 实时商业应用场景
- 成本敏感的云端部署
开源承诺
所有Qwen3-VL权重现已通过以下平台免费开放:
- ModelScope社区平台
- Hugging Face代码库
这些模型采用商业友好许可协议,降低了以下领域的应用门槛:
- 企业采用
- 学术研究
- 初创企业创新
战略意义
此次扩展与行业转向专有模型的趋势形成对比。通过加强开源产品组合,阿里云:
- 确立了生态系统构建者定位
- 加速多模态AI的普及
- 为封闭商业方案提供替代选择 完整的参数矩阵支持从智能手机集成到数据中心级部署的各种应用场景。
核心要点:
- 2B和32B新机型填补了Qwen3-VL家族关键空白
- 24个开源变体全面开放
- FP8量化实现高效的边缘部署
- 商业友好许可促进广泛采用
- 20亿至2350亿参数全覆盖




