要点如下刚刚, Mistral AI 发布 Mistral Large 2,123B 大小,128k 上下文,与 Llama 3.1 不相上下。 支持包括法语、德语、西班牙语、意大利语、葡萄牙语、阿拉伯语、印地语、俄语、中文、日语和韩语在内的数十种语言 支持 Function Calling 和 Retrieval 开源地址:https://huggingface.co/mistralai/Mistral-Large-Instruct-2407 可用于研究和非商业用途,商用需获取许可 在线使用:https://chat.mistral.ai/chat 开发者平台:https://console.mistral.ai/ 云服务:可在 Google Cloud 、Azure AI Studio、Amazon Bedrock 和 IBM watsonx.ai 上调用
简单使用 可在这里使用:https://chat.mistral.ai/chat 
不够聪明啊,ahhhhhh
版本特色 多语言设计:支持多种语言,包括英语、法语、德语、西班牙语、意大利语、中文、日语、韩语、葡萄牙语、荷兰语和波兰语。 精通代码:熟练掌握 80 多种编程语言,如 Python、Java、C、C++、JavaScript 和 Bash 等。还熟悉一些更具体的语言,如 Swift 和 Fortran。 Agent 支持:原生支持 Function Calling 和 JSON 输出。 好的推理:数学和推理能力远超前代,与 GPT-4o、Claude 3 Opus 和 Llama 3.1 405B 不相上下 128k 上下文:,加之在 la Plateforme 实施的输出限制模式,大大促进了应用开发和技术栈的现代化。 开源许可:允许用于研究和非商业用途的使用和修改。
推理测试 
表现远超之前的 Mistral Large,与 GPT-4o、Claude 3 Opus 和 Llama 3.1 405B 相媲美

代码生成测试

MultiPL-E 性能测试

GSM8K(8-shot)和 MATH(0-shot,无 CoT)测试
语言覆盖 
官方给的图,剑指 Meta 
语言性能测试
更多信息 按 Mistral 的说法,他们会围绕以下模型在 la Plateforme 上进行后续整合: 其中 Mistral NeMo 是一款与 NVIDIA 合作开发的 12B 模型,一周前发布的,具体参见:https://mistral.ai/news/mistral-nemo/ 
同时,Mistral 的 Large2 模型已可在 Google Cloud 、Azure AI Studio、Amazon Bedrock 和 IBM watsonx.ai 上进行调用。更多的安排参考: 
|