12月2日,法国人工智能初创企业 Mistral AI 一口气扔出 Large 3 和 Ministral 3,全开源、能看图、能跑在大多数电子设备上,甚至断网也能用。
utside;font-family:-apple-system, BlinkMacSystemFont, "Segoe UI", Helvetica, Arial, sans-serif, "Apple Color Emoji", "Segoe UI Emoji";" class="list-paddingleft-1">一款前沿级开源 MoE:Mistral Large 3,总参数量为 675B,激活参数为 41B;
「世界上最好的小型模型」:Ministral 3(14B、8B、3B),每个模型都发布了基础版、指令微调版和推理版。
这些模型及衍生版本均以Apache 2.0许可证开源。
Mistral Large 3 是在 3000 台 NVIDIA H200 GPU 上从头开始训练的,已成为全球最顶尖的开放权重模型之一。
通过采用英伟达的最新芯片技术,Mistral AI 开源模型家族的新成员在性能、效率和部署灵活性上实现跨越式提升。
Mistral Large 3(Base)在 MMLU、GPOA、SimpleQA、AMC、LiveCodeBench 等多项基础任务上与 DeepSeek 37B、Kimi K2 127B 保持同一水平,属于开源系的第一梯队底模。
在真实人工评估中,Mistral Large 3在通用任务和多语言任务里对DeepSeek V3.1、Kimi K2取得53%–60%的胜率。
Mistral Large 3 在 LMArena 排行榜的 OSS (开源软件)非推理模型类别中位列第二,OSS 总榜第六。
总的来说,Mistral Large 3 在开源大模型中稳居第一梯队,和 Kimi K2 打成平手,仅落后 DeepSeek v3.2一小截。
再说小模型,对于参数较小的 Ministral 3,Mistral AI 称其实现了所有 OSS 模型中最佳的性价比,这些模型的指令变体在性能上与同类模型相当或更优,同时生成的 token 数量通常降低了一个数量级。
图:GPQA Diamond Accuracy 对比Ministral 3系列跑分
Ministral 3系列体量小,但性能强。3B、8B、14B三种大小,全部有base、instruct、reasoning三个版本,全部能看图,全部在官方benchmark里表现不俗。
在预训练能力方面,Mistral 3 和Qwen、Gemma的底模在核心评测上也能正面硬刚。
比如,Ministral 14B的底模实力远超同量级对手,在数学、知识问答、多语言任务中几乎全面领先Gemma 13B和Qwen 1.8B。
Ministral 3的instruct版本在综合智能指数上的得分分别是31(14B)/ 28(8B)/ 22(3B)──全部跑赢上一代Mistral Small 3.2,参数量甚至多40%。
Ministral 14B(Instruction)在WildBench、Arena Hard、数学推理和多模态任务上全面领先Gemma 13B与Qwen 1.8B,指令调优后的综合能力几乎碾压同量级模型。
Ministral 14B(Reasoning)在AIME’25、LiveCodeBench、GPOA Diamond、HMMT等推理任务上全面领先Qwen 14B「Thinking」,数学和代码推理几乎是同量级中的天花板。
值得注意的是,Mistral 在这里并没有对比刚发布几天的 DeepSeek-V3.2 正式版,可能是因为 DeepSeek 没有发布在普通语言任务上的基准测试结果,仅给出了推理和智能体任务的基准结果。