AI竞争白热化:Mistral指控DeepSeek借用其技术
震动AI圈的架构之争
向来以协作著称的开源AI世界本周陷入争议,Mistral首席执行官Arthur Mensch对中国竞争对手DeepSeek的技术提出了惊人指控。
"他们使用了我们的蓝图"
在最近的一次采访中,被称作"欧洲版OpenAI"的Mistral公司掌门人Mensch声称,DeepSeek-V3的架构直接建立在Mistral稀疏混合专家(MoE)模型的开创性工作之上。"我们去年初发布了首个MoE模型,"Mensch解释道,"DeepSeek采用了相同的架构。"
这番言论立即在技术论坛和社交媒体上引发热议。开发者们开始仔细研究arXiv上发表的研究论文,发现了一些耐人寻味的细节:
- 时间疑云:论文发表记录显示Mixtral的论文仅比DeepSeek的MoE研究早三天——几乎不足以完成实质性借鉴
- 技术差异:虽然两者都使用SMoE系统,但DeepSeek实现了如"细粒度专家分割"等Mistral设计中不存在的新特性
- 方法分歧:Mixtral专注于工程优化,而DeepSeek则从零开始重建了核心算法
剧情反转
当分析人士注意到Mistral最新发布的模型存在异常时,事件出现了意想不到的转折。他们的Mistral3Large模型似乎采用了与DeepSeek-V3首次亮相的创新极为相似的架构元素,特别是在MLA技术方面。
一些开发者调侃称,面对MoE领域影响力的变化,Mistral可能试图"改写历史"。也有人认为这只是开源发展中的自然演进。
竞争升级
两家公司似乎都在加速推进:
- 据报道DeepSeek计划在中国春节期间发布重大更新
- Mistral持续更新其Devstral系列,旨在重夺编程智能工具的领先地位
这场争议引发了更深层的问题:在一个基于知识共享的生态系统中如何界定贡献归属。正如一位开发者所言:"在开源领域,每个创新都站在他人肩膀上——但我们应该承认那是谁的肩膀。"
关键要点:
- MistralCEO声称对中国竞争对手DeepSeek存在架构影响
- 技术分析揭示模型间复杂的相互影响关系
- 辩论凸显快速发展开源AI中的贡献认定挑战
- 两家公司都在推进雄心勃勃的新版本发布计划


