返回

Mixtral 8x22B

🔧 Tool Use

Mistral AI · 141B · MoE

Mistral 大型 MoE — 8 专家激活 39B,旗舰推理性能

16.5K downloads 746 likes 1yr ago 64K tokens
使用场景
chat code reasoning
硬件评估
VRAM
速度
基于 Q4_K_M

量化选项

量化 位数 VRAM 质量 状态
Q2_K 2 45.1 GB
Q3_K_M 3 63.2 GB 中等
Q4_K_M 4 72.2 GB 良好
Q5_K_M 5 90.3 GB 良好
Q6_K 6 108.3 GB 优秀
Q8_0 8 144.4 GB 优秀
F16 16 288.9 GB 无损

你的硬件

Q4_K_M 基准评分
检测中...

安装

ollama run mixtral:8x22b
从 HuggingFace 下载 GGUF

规格

参数量
141B
架构
MoE
工具调用
支持
上下文
64K tokens
最低内存
78.8 GB
推荐内存
131.3 GB
系列
Mistral
发布时间
2024-04

HuggingFace Stats

Downloads
16.5K
Likes
746