简介
InternLM(书生·浦语)是由上海人工智能实验室(Shanghai AI Laboratory)与商汤科技联合开发的大语言模型系列。以其高质量的开源模型、强大的推理能力和长上下文支持著称,是国内开源社区的重要力量。
模型版本 (2025.12)
| 模型 | 发布时间 | 特点 |
|---|---|---|
| InternLM3 | 2025.01 | 最新旗舰,8B 规模,推理能力大幅增强,支持 ” 深度思考 ” 模式 |
| InternLM2.5 | 2024.07 | 1M 长上下文,自主规划能力,工具调用增强 |
| InternLM-XComposer2.5 | 2024 | 领先的多模态图文理解与创作,支持长视频流交互 |
核心能力
- 深度思考 (Deep Thinking):InternLM3 引入了类似 o1 的深度思考模式,显著提升了在复杂逻辑推理和知识密集型任务上的表现。
- 超长上下文:InternLM2.5 支持最高 1M tokens 的上下文窗口,适合长文档分析和长对话。
- 全链条开源:提供从数据、预训练、微调到部署的全链条开源工具体系(Lagent, XTuner, LMDeploy 等)。
- 自主智能体:优秀的工具调用和规划能力,适合构建复杂 Agent。
规格参数
- 参数规模:覆盖 1.8B (端侧), 7B/8B (主流), 20B (高性能) 等多种规格。
- 性能对标:InternLM3-8B 在推理和知识类任务上号称超越 Llama 3.1 8B 和 Qwen 2.5 7B。
生态工具
- OpenCompass:评测体系
- LMDeploy:高效部署工具箱
- XTuner:低成本微调工具
- Lagent:智能体框架
官方资源
- GitHub:https://github.com/InternLM/InternLM
- HuggingFace:https://huggingface.co/internlm