简介
Mistral 系列是法国 AI 公司 Mistral AI 开发的大语言模型,以高效率和开源策略著称,是欧洲 AI 领域的代表。
模型版本
| 版本 | 发布时间 | 参数量 | 特点 |
|---|
| Mistral 7B | 2023.09 | 7B | 首发,超越 Llama 13B |
| Mixtral 8x7B | 2023.12 | 46.7B MoE | 首个开源 MoE |
| Mistral Small | 2024 | - | 轻量版 |
| Mistral Medium | 2024 | - | 均衡版 |
| Mistral Large | 2024.02 | - | 旗舰版 |
| Mistral Large 2 | 2024.07 | 123B | 对标 GPT-4o |
| Mixtral 8x22B | 2024.04 | 176B MoE | 超大 MoE |
| Mistral NeMo | 2024.07 | 12B | 与 NVIDIA 合作 |
| Pixtral | 2024.09 | 12B | 多模态版本 |
| Codestral | 2024 | - | 代码专用 |
核心特点
- 高效率:小参数量大性能
- MoE 先驱:开源 MoE 模型领导者
- 欧洲视角:多语言支持好
- 商用选项:开源和商用版本并存
模型矩阵
| 型号 | 定位 | 开源 |
|---|
| Mistral 7B | 入门级 | 是 |
| Mixtral 8x7B | 高性价比 | 是 |
| Mistral NeMo | 均衡型 | 是 |
| Mistral Small | 轻量 API | 否 |
| Mistral Large | 旗舰 API | 否 |
| Codestral | 代码生成 | 部分 |
| Pixtral | 多模态 | 是 |
技术规格
| 版本 | 上下文长度 |
|---|
| Mistral 7B | 32K |
| Mixtral 8x7B | 32K |
| Mistral Large 2 | 128K |
| Mistral NeMo | 128K |
MoE 架构优势
Mixtral 系列采用 Mixture of Experts 架构:
- 总参数 46.7B,但每次只激活 12.9B
- 推理成本与 7B 模型相当
- 性能接近 70B 密集模型
API 接入
官方链接