

| 名称 | 尺寸 | 语境 | 输入 | Ollama 下载命令 |
|---|---|---|---|---|
| deepseek-r1:latest | 5.2GB | 128千 | 文本 | ollama run deepseek-r1 |
| deepseek-r1:1.5b | 1.1GB | 128千 | 文本 | ollama run deepseek-r1:1.5b |
| deepseek-r1:7b | 4.7GB | 128千 | 文本 | ollama run deepseek-r1:7b |
| deepseek-r1:8b | 5.2GB | 128千 | 文本 | ollama run deepseek-r1:8b |
| deepseek-r1:14b | 9.0GB | 128千 | 文本 | ollama run deepseek-r1:14b |
| deepseek-r1:32b | 20GB | 128千 | 文本 | ollama run deepseek-r1:32b |
| deepseek-r1:70b | 43GB | 128千 | 文本 | ollama run deepseek-r1:70b |
| deepseek-r1:671b | 404GB | 16万 | 文本 | ollama run deepseek-r1:671b |
将较大模型的推理模式提炼到较小的模型中,与通过 RL 在小模型上发现的推理模式相比,可以获得更好的性能。
以下是使用 DeepSeek-R1 生成的推理数据,针对研究界广泛使用的几种密集模型进行微调后创建的模型。评估结果表明,经过提炼的较小密集模型在基准测试中表现出色。

模型权重遵循 MIT 许可证。DeepSeek-R1 系列支持商业使用,允许进行任何修改和衍生工作,包括但不限于用于训练其他 LLM 模型的蒸馏。请注意:
Qwen 精炼模型源自 Qwen-2.5 系列,该系列最初获得 Apache 2.0 许可,现在使用 DeepSeek-R1 精选的 800k 个样本进行了微调。
Llama 8B 精简模型源自 Llama3.1-8B-Base,最初根据 llama3.1 许可证获得许可。
Llama 70B 精简模型源自 Llama3.3-70B-Instruct,最初根据 llama3.3 许可证获得授权。