返回

Llama 3.1 405B

🔧 Tool Use

Meta · 405B · Dense

Meta 最大开源稠密模型 — 405B 参数,开源旗舰性能标杆

174.3K downloads 592 likes 1yr ago 128K tokens
使用场景
chat reasoning code
硬件评估
VRAM
速度
基于 Q4_K_M

量化选项

量化 位数 VRAM 质量 状态
Q2_K 2 129.7 GB
Q3_K_M 3 181.5 GB 中等
Q4_K_M 4 207.5 GB 良好
Q5_K_M 5 259.3 GB 良好
Q6_K 6 311.2 GB 优秀
Q8_0 8 414.9 GB 优秀
F16 16 829.8 GB 无损

你的硬件

Q4_K_M 基准评分
检测中...

安装

ollama run llama3.1:405b
从 HuggingFace 下载 GGUF

规格

参数量
405B
架构
Dense
工具调用
支持
上下文
128K tokens
最低内存
226.3 GB
推荐内存
377.2 GB
系列
Llama
发布时间
2024-07

HuggingFace Stats

Downloads
174.3K
Likes
592