返回

Llama 3.3 70B

🔧 Tool Use ★ Popular

Meta · 70B · Dense

Meta 70B 级别最佳开源模型 — 综合能力超越同级竞品

598.7K downloads 2.7K likes 1yr ago 128K tokens
使用场景
chat reasoning code
硬件评估
VRAM
速度
基于 Q4_K_M

量化选项

量化 位数 VRAM 质量 状态
Q2_K 2 22.4 GB
Q3_K_M 3 31.4 GB 中等
Q4_K_M 4 35.9 GB 良好
Q5_K_M 5 44.8 GB 良好
Q6_K 6 53.8 GB 优秀
Q8_0 8 71.7 GB 优秀
F16 16 143.4 GB 无损

你的硬件

Q4_K_M 基准评分
检测中...

安装

ollama run llama3.3:70b
从 HuggingFace 下载 GGUF

规格

参数量
70B
架构
Dense
工具调用
支持
上下文
128K tokens
最低内存
39.1 GB
推荐内存
65.2 GB
系列
Llama
发布时间
2024-12

HuggingFace Stats

Downloads
598.7K
Likes
2.7K