简介

Mistral 系列是法国 AI 公司 Mistral AI 开发的大语言模型,以高效率和开源策略著称,是欧洲 AI 领域的代表。

模型版本

版本发布时间参数量特点
Mistral 7B2023.097B首发,超越 Llama 13B
Mixtral 8x7B2023.1246.7B MoE首个开源 MoE
Mistral Small2024-轻量版
Mistral Medium2024-均衡版
Mistral Large2024.02-旗舰版
Mistral Large 22024.07123B对标 GPT-4o
Mixtral 8x22B2024.04176B MoE超大 MoE
Mistral NeMo2024.0712B与 NVIDIA 合作
Pixtral2024.0912B多模态版本
Codestral2024-代码专用

核心特点

  • 高效率:小参数量大性能
  • MoE 先驱:开源 MoE 模型领导者
  • 欧洲视角:多语言支持好
  • 商用选项:开源和商用版本并存

模型矩阵

型号定位开源
Mistral 7B入门级
Mixtral 8x7B高性价比
Mistral NeMo均衡型
Mistral Small轻量 API
Mistral Large旗舰 API
Codestral代码生成部分
Pixtral多模态

技术规格

版本上下文长度
Mistral 7B32K
Mixtral 8x7B32K
Mistral Large 2128K
Mistral NeMo128K

MoE 架构优势

Mixtral 系列采用 Mixture of Experts 架构:

  • 总参数 46.7B,但每次只激活 12.9B
  • 推理成本与 7B 模型相当
  • 性能接近 70B 密集模型

API 接入

官方链接