返回

LFM2 24B

Liquid AI · 24B · MoE

Liquid AI 混合架构 24B — 卷积+注意力融合,激活仅 2.3B 极省资源

16.5K downloads 275 likes 4mo ago 32K tokens
使用场景
chat edge rag
硬件评估
VRAM
速度
基于 Q4_K_M

量化选项

量化 位数 VRAM 质量 状态
Q2_K 2 7.7 GB
Q3_K_M 3 10.8 GB 中等
Q4_K_M 4 12.3 GB 良好
Q5_K_M 5 15.4 GB 良好
Q6_K 6 18.4 GB 优秀
Q8_0 8 24.6 GB 优秀
F16 16 49.2 GB 无损

你的硬件

Q4_K_M 基准评分
检测中...

安装

ollama run lfm2:24b
从 HuggingFace 下载 GGUF

规格

参数量
24B
架构
MoE
工具调用
不支持
上下文
32K tokens
最低内存
13.4 GB
推荐内存
22.4 GB
系列
LFM
发布时间
2025-11

HuggingFace Stats

Downloads
16.5K
Likes
275