返回

Gemma 2 9B

Google · 9B · Dense

Google 最佳中等规模开源模型 — 质量与速度的最优解

211.7K downloads 778 likes 1yr ago 8K tokens
使用场景
chat reasoning
硬件评估
VRAM
速度
基于 Q4_K_M

量化选项

量化 位数 VRAM 质量 状态
Q2_K 2 2.9 GB
Q3_K_M 3 4 GB 中等
Q4_K_M 4 4.6 GB 良好
Q5_K_M 5 5.8 GB 良好
Q6_K 6 6.9 GB 优秀
Q8_0 8 9.2 GB 优秀
F16 16 18.4 GB 无损

你的硬件

Q4_K_M 基准评分
检测中...

安装

ollama run gemma2:9b
从 HuggingFace 下载 GGUF

规格

参数量
9B
架构
Dense
工具调用
不支持
上下文
8K tokens
最低内存
5 GB
推荐内存
8.4 GB
系列
Gemma
发布时间
2024-06

HuggingFace Stats

Downloads
211.7K
Likes
778