Llama / Llama 3.1

text

Llama 3
0 0 0 更新于 2026-03-24 19:58

概述

Llama 3.1 是 Meta 推出的一款全新先进模型,提供 8B、70B 和 405B 参数尺寸。

模型

名称大小上下文长度输入类型Ollama 下载命令
llama3.1:latest4.9 GB128 KTextollama pull llama3.1:latest
llama3.1:8b4.9 GB128 KTextollama pull llama3.1:8b
llama3.1:70b43 GB128 KTextollama pull llama3.1:70b
llama3.1:405b243 GB128 KTextollama pull llama3.1:405b
llama3.1:8b-instruct-q2_K3.2 GB128 KTextollama pull llama3.1:8b-instruct-q2_K
llama3.1:8b-instruct-q3_K_S3.7 GB128 KTextollama pull llama3.1:8b-instruct-q3_K_S
llama3.1:8b-instruct-q3_K_M4.0 GB128 KTextollama pull llama3.1:8b-instruct-q3_K_M
llama3.1:8b-instruct-q3_K_L4.3 GB128 KTextollama pull llama3.1:8b-instruct-q3_K_L
llama3.1:8b-instruct-q4_04.7 GB128 KTextollama pull llama3.1:8b-instruct-q4_0
llama3.1:8b-instruct-q4_15.1 GB128 KTextollama pull llama3.1:8b-instruct-q4_1
llama3.1:8b-instruct-q4_K_S4.7 GB128 KTextollama pull llama3.1:8b-instruct-q4_K_S
llama3.1:8b-instruct-q4_K_M4.9 GB128 KTextollama pull llama3.1:8b-instruct-q4_K_M
llama3.1:8b-instruct-q5_05.6 GB128 KTextollama pull llama3.1:8b-instruct-q5_0
llama3.1:8b-instruct-q5_16.1 GB128 KTextollama pull llama3.1:8b-instruct-q5_1
llama3.1:8b-instruct-q5_K_S5.6 GB128 KTextollama pull llama3.1:8b-instruct-q5_K_S
llama3.1:8b-instruct-q5_K_M5.7 GB128 KTextollama pull llama3.1:8b-instruct-q5_K_M
llama3.1:8b-instruct-q6_K6.6 GB128 KTextollama pull llama3.1:8b-instruct-q6_K
llama3.1:8b-instruct-q8_08.5 GB128 KTextollama pull llama3.1:8b-instruct-q8_0
llama3.1:8b-instruct-fp1616 GB128 KTextollama pull llama3.1:8b-instruct-fp16
llama3.1:8b-text-q2_K3.2 GB128 KTextollama pull llama3.1:8b-text-q2_K
llama3.1:8b-text-q3_K_S3.7 GB128 KTextollama pull llama3.1:8b-text-q3_K_S
llama3.1:8b-text-q3_K_M4.0 GB128 KTextollama pull llama3.1:8b-text-q3_K_M
llama3.1:8b-text-q3_K_L4.3 GB128 KTextollama pull llama3.1:8b-text-q3_K_L
llama3.1:8b-text-q4_04.7 GB128 KTextollama pull llama3.1:8b-text-q4_0
llama3.1:8b-text-q4_15.1 GB128 KTextollama pull llama3.1:8b-text-q4_1
llama3.1:8b-text-q4_K_S4.7 GB128 KTextollama pull llama3.1:8b-text-q4_K_S
llama3.1:8b-text-q4_K_M4.9 GB128 KTextollama pull llama3.1:8b-text-q4_K_M
llama3.1:8b-text-q5_05.6 GB128 KTextollama pull llama3.1:8b-text-q5_0
llama3.1:8b-text-q5_16.1 GB128 KTextollama pull llama3.1:8b-text-q5_1
llama3.1:8b-text-q5_K_S5.6 GB128 KTextollama pull llama3.1:8b-text-q5_K_S
llama3.1:8b-text-q5_K_M5.7 GB128 KTextollama pull llama3.1:8b-text-q5_K_M
llama3.1:8b-text-q6_K6.6 GB128 KTextollama pull llama3.1:8b-text-q6_K
llama3.1:8b-text-q8_08.5 GB128 KTextollama pull llama3.1:8b-text-q8_0
llama3.1:8b-text-fp1616 GB128 KTextollama pull llama3.1:8b-text-fp16
llama3.1:70b-instruct-q2_K26 GB128 KTextollama pull llama3.1:70b-instruct-q2_K
llama3.1:70b-instruct-q3_K_S31 GB128 KTextollama pull llama3.1:70b-instruct-q3_K_S
llama3.1:70b-instruct-q3_K_M34 GB128 KTextollama pull llama3.1:70b-instruct-q3_K_M
llama3.1:70b-instruct-q3_K_L37 GB128 KTextollama pull llama3.1:70b-instruct-q3_K_L
llama3.1:70b-instruct-q4_040 GB128 KTextollama pull llama3.1:70b-instruct-q4_0
llama3.1:70b-instruct-q4_144 GB128 KTextollama pull llama3.1:70b-instruct-q4_1
llama3.1:70b-instruct-q4_K_S40 GB128 KTextollama pull llama3.1:70b-instruct-q4_K_S
llama3.1:70b-instruct-q4_K_M43 GB128 KTextollama pull llama3.1:70b-instruct-q4_K_M
llama3.1:70b-instruct-q5_049 GB128 KTextollama pull llama3.1:70b-instruct-q5_0
llama3.1:70b-instruct-q5_153 GB128 KTextollama pull llama3.1:70b-instruct-q5_1
llama3.1:70b-instruct-q5_K_S49 GB128 KTextollama pull llama3.1:70b-instruct-q5_K_S
llama3.1:70b-instruct-q5_K_M50 GB128 KTextollama pull llama3.1:70b-instruct-q5_K_M
llama3.1:70b-instruct-q6_K58 GB128 KTextollama pull llama3.1:70b-instruct-q6_K
llama3.1:70b-instruct-q8_075 GB128 KTextollama pull llama3.1:70b-instruct-q8_0
llama3.1:70b-instruct-fp16141 GB128 KTextollama pull llama3.1:70b-instruct-fp16
llama3.1:70b-text-q2_K26 GB128 KTextollama pull llama3.1:70b-text-q2_K
llama3.1:70b-text-q3_K_S31 GB128 KTextollama pull llama3.1:70b-text-q3_K_S
llama3.1:70b-text-q3_K_M34 GB128 KTextollama pull llama3.1:70b-text-q3_K_M
llama3.1:70b-text-q3_K_L37 GB128 KTextollama pull llama3.1:70b-text-q3_K_L
llama3.1:70b-text-q4_040 GB128 KTextollama pull llama3.1:70b-text-q4_0
llama3.1:70b-text-q4_144 GB128 KTextollama pull llama3.1:70b-text-q4_1
llama3.1:70b-text-q4_K_S40 GB128 KTextollama pull llama3.1:70b-text-q4_K_S
llama3.1:70b-text-q4_K_M43 GB128 KTextollama pull llama3.1:70b-text-q4_K_M
llama3.1:70b-text-q5_049 GB128 KTextollama pull llama3.1:70b-text-q5_0
llama3.1:70b-text-q5_153 GB128 KTextollama pull llama3.1:70b-text-q5_1
llama3.1:70b-text-q5_K_S49 GB128 KTextollama pull llama3.1:70b-text-q5_K_S
llama3.1:70b-text-q5_K_M50 GB128 KTextollama pull llama3.1:70b-text-q5_K_M
llama3.1:70b-text-q6_K58 GB128 KTextollama pull llama3.1:70b-text-q6_K
llama3.1:70b-text-q8_075 GB128 KTextollama pull llama3.1:70b-text-q8_0
llama3.1:70b-text-fp16141 GB128 KTextollama pull llama3.1:70b-text-fp16
llama3.1:405b-instruct-q2_K149 GB128 KTextollama pull llama3.1:405b-instruct-q2_K
llama3.1:405b-instruct-q3_K_S175 GB128 KTextollama pull llama3.1:405b-instruct-q3_K_S
llama3.1:405b-instruct-q3_K_M195 GB128 KTextollama pull llama3.1:405b-instruct-q3_K_M
llama3.1:405b-instruct-q3_K_L213 GB128 KTextollama pull llama3.1:405b-instruct-q3_K_L
llama3.1:405b-instruct-q4_0229 GB128 KTextollama pull llama3.1:405b-instruct-q4_0
llama3.1:405b-instruct-q4_1254 GB128 KTextollama pull llama3.1:405b-instruct-q4_1
llama3.1:405b-instruct-q4_K_S231 GB128 KTextollama pull llama3.1:405b-instruct-q4_K_S
llama3.1:405b-instruct-q4_K_M243 GB128 KTextollama pull llama3.1:405b-instruct-q4_K_M
llama3.1:405b-instruct-q5_0279 GB128 KTextollama pull llama3.1:405b-instruct-q5_0
llama3.1:405b-instruct-q5_1305 GB128 KTextollama pull llama3.1:405b-instruct-q5_1
llama3.1:405b-instruct-q5_K_S279 GB128 KTextollama pull llama3.1:405b-instruct-q5_K_S
llama3.1:405b-instruct-q5_K_M287 GB128 KTextollama pull llama3.1:405b-instruct-q5_K_M
llama3.1:405b-instruct-q6_K333 GB128 KTextollama pull llama3.1:405b-instruct-q6_K
llama3.1:405b-instruct-q8_0431 GB128 KTextollama pull llama3.1:405b-instruct-q8_0
llama3.1:405b-instruct-fp16812 GB128 KTextollama pull llama3.1:405b-instruct-fp16
llama3.1:405b-text-q2_K149 GB128 KTextollama pull llama3.1:405b-text-q2_K
llama3.1:405b-text-q3_K_S175 GB128 KTextollama pull llama3.1:405b-text-q3_K_S
llama3.1:405b-text-q3_K_M195 GB128 KTextollama pull llama3.1:405b-text-q3_K_M
llama3.1:405b-text-q3_K_L213 GB128 KTextollama pull llama3.1:405b-text-q3_K_L
llama3.1:405b-text-q4_0229 GB128 KTextollama pull llama3.1:405b-text-q4_0
llama3.1:405b-text-q4_1254 GB128 KTextollama pull llama3.1:405b-text-q4_1
llama3.1:405b-text-q4_K_S231 GB128 KTextollama pull llama3.1:405b-text-q4_K_S
llama3.1:405b-text-q4_K_M243 GB128 KTextollama pull llama3.1:405b-text-q4_K_M
llama3.1:405b-text-q5_0279 GB128 KTextollama pull llama3.1:405b-text-q5_0
llama3.1:405b-text-q5_1305 GB128 KTextollama pull llama3.1:405b-text-q5_1
llama3.1:405b-text-q5_K_S279 GB128 KTextollama pull llama3.1:405b-text-q5_K_S
llama3.1:405b-text-q5_K_M287 GB128 KTextollama pull llama3.1:405b-text-q5_K_M
llama3.1:405b-text-q6_K333 GB128 KTextollama pull llama3.1:405b-text-q6_K
llama3.1:405b-text-q8_0431 GB128 KTextollama pull llama3.1:405b-text-q8_0
llama3.1:405b-text-fp16812 GB128 KTextollama pull llama3.1:405b-text-fp16

详情

image

Llama 3.1 405B 是第一个公开可用的模型,在常识、可操纵性、数学、工具使用和多语言翻译等最先进的功能方面可与顶级 AI 模型相媲美。

8B 和 70B 模型的升级版支持多语言,上下文长度显著增加至 128K,并采用了最先进的工具,整体推理能力也更加强大。这使得 Meta 的最新模型能够支持高级用例,例如长篇文本摘要、多语言对话代理和编程助手。

Meta 还对其许可证进行了更改,允许开发人员使用 Llama 模型(包括 405B 模型)的输出来改进其他模型。

模型评估

本次发布中,Meta 已在 150 多个涵盖多种语言的基准数据集上评估了其性能。此外,Meta 还进行了大量的人工评估,将 Llama 3.1 与实际场景中的竞争模型进行了比较。Meta 的实验评估表明,我们的旗舰模型在一系列任务中,包括 GPT-4、GPT-4o 和 Claude 3.5 Sonnet,都与领先的基础模型相媲美。此外,Meta 的小型模型与参数数量相近的封闭式和开放式模型相比,也具有竞争力。

image

image

image