阿里巴巴Qwen3.5 AI模型即将发布,具备视觉语言能力
阿里巴巴准备在农历新年发布新一代AI模型
追踪阿里巴巴人工智能计划的开发者们发现了有力证据,表明该公司新一代基础模型Qwen3.5即将公开亮相。流行开源项目HuggingFace Transformers中的代码合并请求暗示发布在即,时间点可能选在即将到来的春节庆祝活动期间。
关于Qwen3.5的已知信息
新模型似乎凭借其混合注意力机制取得突破性进展,这种技术方法可增强其处理复杂信息的能力。更引人注目的是,早期迹象表明Qwen3.5将是一款原生视觉语言模型(VLM)——意味着它可能从一开始就具备理解和生成结合文本与视觉元素内容的能力。

开发者论坛对代码中提到的两个具体变体热议纷纷:
- 适用于效率优先场景的精简型2B密集模型
- 采用专家混合架构、面向重型工作负载的更复杂35B-A3B MoE模型
发布时间与社区影响
潜在的农历新年发布窗口为这一技术进展增添了有趣的文化维度。对中国科技社区而言,这既可能是一份节日礼物,也是可访问AI技术的重要飞跃。
"看到这些提交现在出现,表明阿里巴巴希望在假期期间引起轰动,"一位因职业关系要求匿名的开源贡献者指出,"特别是VLM能力可能会改变开发者处理多模态项目的方式。"
关键要点:
- 即将发布: 代码合并表明Qwen3.5临近推出
- 技术创新: 混合注意力机制或带来性能提升
- 双重能力: 初始版本可能就支持原生视觉语言功能
- 型号多样: 预计将推出紧凑型(2B)和强大版(35B-A3B MoE)两种版本
- 文化时机: 春节发布在中国市场具有战略意义



