能跑吗?
检测你的机器能跑哪些 AI 模型。
GPU
NVIDIA RTX 50 系列
NVIDIA RTX 40 系列
NVIDIA RTX 30 系列
NVIDIA 专业显卡
NVIDIA RTX 20 系列
NVIDIA 数据中心
NVIDIA GTX 16 系列
NVIDIA GTX 10 系列
NVIDIA GTX 9 系列
AMD RX 9000 系列
AMD RX 7000 系列
AMD RX 6000 系列
AMD RX 5000 系列
AMD 旧款/其他
Intel Arc
Intel 核显
Apple Silicon
VRAM
带宽
Cores
—
WebGPU
基于浏览器 API 估算,实际规格可能有所差异。
评级:
模型
发布 显存 上下文 速度
评级
Command R 35B
2年前 — 128K —
—
—
DeepSeek R1 1.5B
1年前 — 64K —
—
—
DeepSeek R1 Distill 7B
1年前 — 64K —
—
—
DeepSeek R1 Distill 14B
1年前 — 64K —
—
—
DeepSeek R1 Distill 32B ★
1年前 — 64K —
—
—
DeepSeek R1 ★
1年前 — 64K —
—
—
DeepSeek V3.1
7个月前 — 128K —
—
—
DeepSeek V3.2 ★
3个月前 — 128K —
—
—
Devstral 2 123B ★
3个月前 — 256K —
—
—
Devstral Small 2 24B
3个月前 — 256K —
—
—
EXAONE 4.0 32B
8个月前 — 128K —
—
—
Gemma 2 2B
1年前 — 8K —
—
—
Gemma 2 9B
1年前 — 8K —
—
—
Gemma 2 27B
1年前 — 8K —
—
—
Gemma 3 1B
1年前 — 32K —
—
—
Gemma 3 4B
1年前 — 128K —
—
—
Gemma 3 12B
1年前 — 128K —
—
—
Gemma 3 27B ★
1年前 — 128K —
—
—
GLM-4 9B
1年前 — 128K —
—
—
GPT-OSS 20B ★
7个月前 — 128K —
—
—
GPT-OSS 120B ★
7个月前 — 128K —
—
—
Kimi K2 ★
8个月前 — 128K —
—
—
LFM2 24B
4个月前 — 32K —
—
—
Llama 3.1 8B ★
1年前 — 128K —
—
—
Llama 3.1 405B
1年前 — 128K —
—
—
Llama 3.2 1B
1年前 — 128K —
—
—
Llama 3.2 3B
1年前 — 128K —
—
—
Llama 3.2 11B Vision
1年前 — 128K —
—
—
Llama 3.3 70B ★
1年前 — 128K —
—
—
Llama 4 Maverick 17B-128E
11个月前 — 1.024M —
—
—
Llama 4 Scout 17B ★
11个月前 — 128K —
—
—
Ministral 8B
1年前 — 32K —
—
—
Mistral 7B v0.3
1年前 — 32K —
—
—
Mistral Nemo 12B
1年前 — 128K —
—
—
Mistral Small 3.1 24B ★
1年前 — 128K —
—
—
Mixtral 8x7B
2年前 — 32K —
—
—
Mixtral 8x22B
1年前 — 64K —
—
—
Nemotron Nano 9B v2
9个月前 — 128K —
—
—
Nemotron 3 Nano 30B
9个月前 — 1.024M —
—
—
OLMo 2 32B
1年前 — 4K —
—
—
Phi-3.5 Mini
1年前 — 128K —
—
—
Phi-4 14B ★
1年前 — 16K —
—
—
Phi-4 Mini Reasoning
11个月前 — 16K —
—
—
Qwen 2.5 7B
1年前 — 128K —
—
—
Qwen 2.5 14B
1年前 — 128K —
—
—
Qwen 2.5 32B
1年前 — 128K —
—
—
Qwen 2.5 72B
1年前 — 128K —
—
—
Qwen 2.5 Coder 1.5B
1年前 — 32K —
—
—
Qwen 2.5 Coder 7B
1年前 — 128K —
—
—
Qwen 2.5 Coder 32B ★
1年前 — 128K —
—
—
Qwen 3 1.7B
11个月前 — 32K —
—
—
Qwen 3 4B
11个月前 — 32K —
—
—
Qwen 3 8B
11个月前 — 128K —
—
—
Qwen 3 14B
11个月前 — 128K —
—
—
Qwen 3 30B-A3B
11个月前 — 128K —
—
—
Qwen 3 32B ★
11个月前 — 128K —
—
—
Qwen 3 235B-A22B
11个月前 — 128K —
—
—
Qwen 3 Coder 480B
8个月前 — 256K —
—
—
Qwen 3.5 0.8B
1个月前 — 32K —
—
—
Qwen 3.5 2B
1个月前 — 32K —
—
—
Qwen 3.5 4B
1个月前 — 32K —
—
—
Qwen 3.5 9B ★
1个月前 — 32K —
—
—
Qwen 3.5 27B
1个月前 — 256K —
—
—
Qwen 3.5 35B-A3B
1个月前 — 256K —
—
—
Qwen 3.5 122B-A10B
1个月前 — 256K —
—
—
Qwen 3.5 397B-A17B
1个月前 — 256K —
—
—
SmolLM3 3B
8个月前 — 128K —
—
—
TinyLlama 1.1B
2年前 — 2K —
—
—
每张卡片展示该模型在你的显卡上的运行情况,点击查看量化选项和安装命令。
Command R 35B
2年前 Cohere · 35B
Cohere 出品的 35B RAG 专用模型 — 检索增强生成最佳选择
— — 128K ctx —
—
— —
DeepSeek R1 1.5B
1年前 DeepSeek · 1.5B
DeepSeek R1 推理能力蒸馏至 1.5B — 超轻量推理入门
— — 64K ctx —
—
— —
DeepSeek R1 Distill 7B
1年前 DeepSeek · 7B
R1 推理能力注入 Qwen 7B — 小体积强推理
— — 64K ctx —
—
— —
DeepSeek R1 Distill 14B
1年前 DeepSeek · 14B
R1 推理能力注入 Qwen 14B — 性能与效率的平衡点
— — 64K ctx —
—
— —
DeepSeek R1 Distill 32B ★
1年前 DeepSeek · 32B
R1 推理能力注入 Qwen 32B — 最佳蒸馏版本,性价比极高
— — 64K ctx —
—
— —
DeepSeek R1 ★
1年前 DeepSeek · 671B
DeepSeek 旗舰推理 MoE — 激活参数 37B,深度思考能力顶级
— — 64K ctx —
—
— —
DeepSeek V3.1
7个月前 DeepSeek · 671B
DeepSeek V3 进化版 — 混合思考模式与工具调用全面升级
— — 128K ctx —
—
— —
DeepSeek V3.2 ★
3个月前 DeepSeek · 685B
DeepSeek 最强 MoE — 激活 37B 参数,对标 GPT-4 级别
— — 128K ctx —
—
— —
Devstral 2 123B ★
3个月前 Mistral AI · 123B
Mistral 旗舰编程 MoE — 123B 参数,SWE-bench 72.2% 行业领先
— — 256K ctx —
—
— —
Devstral Small 2 24B
3个月前 Mistral AI · 24B
Mistral 轻量编程模型 — 256K 超长上下文,SWE-bench 68%
— — 256K ctx —
—
— —
EXAONE 4.0 32B
8个月前 LG AI · 32B
LG AI 混合推理 32B — 多语言支持,中韩英全面覆盖
— — 128K ctx —
—
— —
Gemma 2 2B
1年前 Google · 2B
Google 精简 2B 开源模型 — 轻量高效,适合本地部署
— — 8K ctx —
—
— —
Gemma 2 9B
1年前 Google · 9B
Google 最佳中等规模开源模型 — 质量与速度的最优解
— — 8K ctx —
—
— —
Gemma 2 27B
1年前 Google · 27B
Google Gemma 2 最大版本 — 强大的开源 27B 旗舰
— — 8K ctx —
—
— —
Gemma 3 1B
1年前 Google · 1B
Google 超轻量端侧模型 — 移动设备首选,极低资源占用
— — 32K ctx —
—
— —
Gemma 3 4B
1年前 Google · 4B
Google 多模态 4B — 支持视觉输入,128K 超长上下文
— — 128K ctx —
—
— —
Gemma 3 12B
1年前 Google · 12B
Google 多模态 12B — 视觉理解与长文处理双重能力
— — 128K ctx —
—
— —
Gemma 3 27B ★
1年前 Google · 27B
Google Gemma 3 旗舰 — 多模态能力最强的 Gemma 版本
— — 128K ctx —
—
— —
GLM-4 9B
1年前 Zhipu AI · 9B
智谱 AI 多语言 9B — 支持 26 种语言,128K 超长上下文
— — 128K ctx —
—
— —
GPT-OSS 20B ★
7个月前 OpenAI · 21B
OpenAI 开源 MoE 20B — 可配置推理深度,灵活平衡速度与质量
— — 128K ctx —
—
— —
GPT-OSS 120B ★
7个月前 OpenAI · 117B
OpenAI 旗舰开源 MoE — 120B 规模,SWE-bench 52.6% 代码能力顶级
— — 128K ctx —
—
— —
Kimi K2 ★
8个月前 Moonshot AI · 1.0T
Moonshot AI 万亿参数 MoE — 384 专家激活 32B,代码智能体首选
— — 128K ctx —
—
— —
LFM2 24B
4个月前 Liquid AI · 24B
Liquid AI 混合架构 24B — 卷积+注意力融合,激活仅 2.3B 极省资源
— — 32K ctx —
—
— —
Llama 3.1 8B ★
1年前 Meta · 8B
Meta 通用 8B 模型 — 质量与速度的完美平衡,日常任务首选
— — 128K ctx —
—
— —
Llama 3.1 405B
1年前 Meta · 405B
Meta 最大开源稠密模型 — 405B 参数,开源旗舰性能标杆
— — 128K ctx —
—
— —
Llama 3.2 1B
1年前 Meta · 1B
Meta 最小 Llama — 边缘设备和嵌入式应用专属
— — 128K ctx —
—
— —
Llama 3.2 3B
1年前 Meta · 3B
Meta 轻量 3B — 移动端与边缘计算的理想选择
— — 128K ctx —
—
— —
Llama 3.2 11B Vision
1年前 Meta · 11B
Meta 多模态视觉模型 — 图文理解能力全面升级
— — 128K ctx —
—
— —
Llama 3.3 70B ★
1年前 Meta · 70B
Meta 70B 级别最佳开源模型 — 综合能力超越同级竞品
— — 128K ctx —
—
— —
Llama 4 Maverick 17B-128E
11个月前 Meta · 400B
Meta MoE 多模态旗舰 — 128 专家激活 17B,百万 token 超长上下文
— — 1.024M ctx —
—
— —
Llama 4 Scout 17B ★
11个月前 Meta · 109B
Meta MoE 轻量版 — 16 专家激活 17B,效率与能力并重
— — 128K ctx —
—
— —
Ministral 8B
1年前 Mistral AI · 8B
Mistral 高效 8B — 小体积高性能,推理速度领先同级
— — 32K ctx —
—
— —
Mistral 7B v0.3
1年前 Mistral AI · 7B
Mistral 经典 7B — 滑动窗口注意力机制,长文处理能力出色
— — 32K ctx —
—
— —
Mistral Nemo 12B
1年前 Mistral AI · 12B
Mistral 多语言 12B — 128K 超长上下文,多语言对话优秀
— — 128K ctx —
—
— —
Mistral Small 3.1 24B ★
1年前 Mistral AI · 24B
Mistral 多模态 24B — 支持视觉输入,均衡性能与效率
— — 128K ctx —
—
— —
Mixtral 8x7B
2年前 Mistral AI · 47B
Mistral 经典 MoE — 8 专家激活 12.9B,速度快质量高
— — 32K ctx —
—
— —
Mixtral 8x22B
1年前 Mistral AI · 141B
Mistral 大型 MoE — 8 专家激活 39B,旗舰推理性能
— — 64K ctx —
—
— —
Nemotron Nano 9B v2
9个月前 NVIDIA · 9B
NVIDIA Mamba2 混合架构 9B — 深度推理能力独特的架构设计
— — 128K ctx —
—
— —
Nemotron 3 Nano 30B
9个月前 NVIDIA · 30B
NVIDIA MoE 30B — 百万 token 超长上下文,激活仅 3B 超省内存
— — 1.024M ctx —
—
— —
OLMo 2 32B
1年前 Allen AI · 32B
Allen AI 完全开放研究模型 — 训练数据代码全公开,学术首选
— — 4K ctx —
—
— —
Phi-3.5 Mini
1年前 Microsoft · 3.8B
Microsoft 高效小模型 — 超长上下文支持,轻量化性能出色
— — 128K ctx —
—
— —
Phi-4 14B ★
1年前 Microsoft · 14B
Microsoft 推理专注 14B — 数学与科学推理能力显著提升
— — 16K ctx —
—
— —
Phi-4 Mini Reasoning
11个月前 Microsoft · 3.8B
Microsoft 轻量推理专属模型 — 小体积释放强推理潜力
— — 16K ctx —
—
— —
Qwen 2.5 7B
1年前 Alibaba · 7B
阿里云 7B 多语言强模 — 中文和代码能力领先同级
— — 128K ctx —
—
— —
Qwen 2.5 14B
1年前 Alibaba · 14B
阿里云 14B 均衡旗舰 — 同级别质量最优,性价比极高
— — 128K ctx —
—
— —
Qwen 2.5 32B
1年前 Alibaba · 32B
阿里云 32B 推理旗舰 — 强大的多语言与逻辑推理能力
— — 128K ctx —
—
— —
Qwen 2.5 72B
1年前 Alibaba · 72B
阿里云顶级开源 72B — Qwen 2.5 系列最强,综合能力全面
— — 128K ctx —
—
— —
Qwen 2.5 Coder 1.5B
1年前 Alibaba · 1.5B
阿里云超轻量编程模型 — 极低资源占用,代码补全入门
— — 32K ctx —
—
— —
Qwen 2.5 Coder 7B
1年前 Alibaba · 7B
阿里云编程专属 7B — 代码生成与理解能力突出
— — 128K ctx —
—
— —
Qwen 2.5 Coder 32B ★
1年前 Alibaba · 32B
阿里云开源编程旗舰 — 发布时开源代码模型第一名
— — 128K ctx —
—
— —
Qwen 3 1.7B
11个月前 Alibaba · 1.7B
阿里云紧凑型多语言 Qwen 3 — 超小体积支持多语言对话
— — 32K ctx —
—
— —
Qwen 3 4B
11个月前 Alibaba · 4B
阿里云 Qwen 3 通用 4B — 轻量高效,日常任务覆盖全面
— — 32K ctx —
—
— —
Qwen 3 8B
11个月前 Alibaba · 8B
阿里云 Qwen 3 8B — 支持深度思考模式,推理能力跃升
— — 128K ctx —
—
— —
Qwen 3 14B
11个月前 Alibaba · 14B
阿里云 Qwen 3 14B — 思考模式全开,全能型选手
— — 128K ctx —
—
— —
Qwen 3 30B-A3B
11个月前 Alibaba · 30B
阿里云 MoE 30B — 激活仅 3.3B 参数,极致效率与强大能力并存
— — 128K ctx —
—
— —
Qwen 3 32B ★
11个月前 Alibaba · 32B
阿里云 Qwen 3 旗舰稠密 32B — 强推理能力,完整参数全激活
— — 128K ctx —
—
— —
Qwen 3 235B-A22B
11个月前 Alibaba · 235B
阿里云巨型 MoE — 235B 总参数激活 22B,前沿级推理质量
— — 128K ctx —
—
— —
Qwen 3 Coder 480B
8个月前 Alibaba · 480B
阿里云最大编程 MoE — 480B 激活 35B,开源编程天花板
— — 256K ctx —
—
— —
Qwen 3.5 0.8B
1个月前 Alibaba · 0.8B
阿里云超迷你 0.8B — 嵌入式和边缘端部署首选
— — 32K ctx —
—
— —
Qwen 3.5 2B
1个月前 Alibaba · 2B
阿里云多模态 Qwen 3.5 2B — 原生视觉理解,轻量部署
— — 32K ctx —
—
— —
Qwen 3.5 4B
1个月前 Alibaba · 4B
阿里云多模态 Qwen 3.5 4B — 图文并茂,小体积全能型
— — 32K ctx —
—
— —
Qwen 3.5 9B ★
1个月前 Alibaba · 9B
阿里云多模态 Qwen 3.5 9B — 视觉+语言中型均衡旗舰
— — 32K ctx —
—
— —
Qwen 3.5 27B
1个月前 Alibaba · 27.8B
阿里云旗舰原生多模态 27B — 视觉理解与长文处理顶级配置
— — 256K ctx —
—
— —
Qwen 3.5 35B-A3B
1个月前 Alibaba · 35B
阿里云多模态高效 MoE — 35B 激活 3B,视觉能力资源双优
— — 256K ctx —
—
— —
Qwen 3.5 122B-A10B
1个月前 Alibaba · 122B
阿里云大型多模态 MoE — 122B 激活 10B,强大视觉推理
— — 256K ctx —
—
— —
Qwen 3.5 397B-A17B
1个月前 Alibaba · 397B
阿里云旗舰超大多模态 MoE — 397B 激活 17B,多模态天花板
— — 256K ctx —
—
— —
SmolLM3 3B
8个月前 HuggingFace · 3B
HuggingFace 轻量多语言 3B — 推理能力强,资源友好型选手
— — 128K ctx —
—
— —
TinyLlama 1.1B
2年前 Community · 1.1B
社区超轻量 1.1B — 极度受限设备的最后选择
— — 2K ctx —
—
— —
点击量化按钮可固定版本,换显卡时保持选择。点击卡片查看完整详情。
Command R 35B 2年前
Cohere · 35B
Cohere 出品的 35B RAG 专用模型 — 检索增强生成最佳选择
— — 128K ctx —
发布 2024-03 架构 Dense
chatrag
—
— —
DeepSeek R1 1.5B 1年前
DeepSeek · 1.5B
DeepSeek R1 推理能力蒸馏至 1.5B — 超轻量推理入门
— — 64K ctx —
发布 2025-01 架构 Dense
reasoning
—
— —
DeepSeek R1 Distill 7B 1年前
DeepSeek · 7B
R1 推理能力注入 Qwen 7B — 小体积强推理
— — 64K ctx —
发布 2025-01 架构 Dense
reasoning
—
— —
DeepSeek R1 Distill 14B 1年前
DeepSeek · 14B
R1 推理能力注入 Qwen 14B — 性能与效率的平衡点
— — 64K ctx —
发布 2025-01 架构 Dense
reasoning
—
— —
DeepSeek R1 Distill 32B ★ 1年前
DeepSeek · 32B
R1 推理能力注入 Qwen 32B — 最佳蒸馏版本,性价比极高
— — 64K ctx —
发布 2025-01 架构 Dense
reasoning
—
— —
DeepSeek R1 ★ 1年前
DeepSeek · 671B
DeepSeek 旗舰推理 MoE — 激活参数 37B,深度思考能力顶级
— — 64K ctx —
发布 2025-01 架构 MoE
reasoning
—
— —
DeepSeek V3.1 7个月前
DeepSeek · 671B
DeepSeek V3 进化版 — 混合思考模式与工具调用全面升级
— — 128K ctx —
发布 2025-08 架构 MoE MoE 激活 37B
chatcodereasoning
—
— —
DeepSeek V3.2 ★ 3个月前
DeepSeek · 685B
DeepSeek 最强 MoE — 激活 37B 参数,对标 GPT-4 级别
— — 128K ctx —
发布 2025-12 架构 MoE MoE 激活 37B
chatcodereasoning
—
— —
Devstral 2 123B ★ 3个月前
Mistral AI · 123B
Mistral 旗舰编程 MoE — 123B 参数,SWE-bench 72.2% 行业领先
— — 256K ctx —
发布 2025-12 架构 Dense
code
—
— —
Devstral Small 2 24B 3个月前
Mistral AI · 24B
Mistral 轻量编程模型 — 256K 超长上下文,SWE-bench 68%
— — 256K ctx —
发布 2025-12 架构 Dense
code
—
— —
EXAONE 4.0 32B 8个月前
LG AI · 32B
LG AI 混合推理 32B — 多语言支持,中韩英全面覆盖
— — 128K ctx —
发布 2025-07 架构 Dense
chatreasoning
—
— —
Gemma 2 2B 1年前
Google · 2B
Google 精简 2B 开源模型 — 轻量高效,适合本地部署
— — 8K ctx —
发布 2024-06 架构 Dense
chatedge
—
— —
Gemma 2 9B 1年前
Google · 9B
Google 最佳中等规模开源模型 — 质量与速度的最优解
— — 8K ctx —
发布 2024-06 架构 Dense
chatreasoning
—
— —
Gemma 2 27B 1年前
Google · 27B
Google Gemma 2 最大版本 — 强大的开源 27B 旗舰
— — 8K ctx —
发布 2024-06 架构 Dense
chatreasoning
—
— —
Gemma 3 1B 1年前
Google · 1B
Google 超轻量端侧模型 — 移动设备首选,极低资源占用
— — 32K ctx —
发布 2025-03 架构 Dense
chatedge
—
— —
Gemma 3 4B 1年前
Google · 4B
Google 多模态 4B — 支持视觉输入,128K 超长上下文
— — 128K ctx —
发布 2025-03 架构 Dense
chatvision
—
— —
Gemma 3 12B 1年前
Google · 12B
Google 多模态 12B — 视觉理解与长文处理双重能力
— — 128K ctx —
发布 2025-03 架构 Dense
chatvisionreasoning
—
— —
Gemma 3 27B ★ 1年前
Google · 27B
Google Gemma 3 旗舰 — 多模态能力最强的 Gemma 版本
— — 128K ctx —
发布 2025-03 架构 Dense
chatvisionreasoning
—
— —
GLM-4 9B 1年前
Zhipu AI · 9B
智谱 AI 多语言 9B — 支持 26 种语言,128K 超长上下文
— — 128K ctx —
发布 2024-06 架构 Dense
chatmultilingualcode
—
— —
GPT-OSS 20B ★ 7个月前
OpenAI · 21B
OpenAI 开源 MoE 20B — 可配置推理深度,灵活平衡速度与质量
— — 128K ctx —
发布 2025-08 架构 MoE
chatreasoningcode
—
— —
GPT-OSS 120B ★ 7个月前
OpenAI · 117B
OpenAI 旗舰开源 MoE — 120B 规模,SWE-bench 52.6% 代码能力顶级
— — 128K ctx —
发布 2025-08 架构 MoE
chatreasoningcode
—
— —
Kimi K2 ★ 8个月前
Moonshot AI · 1.0T
Moonshot AI 万亿参数 MoE — 384 专家激活 32B,代码智能体首选
— — 128K ctx —
发布 2025-07 架构 MoE MoE 激活 32B
chatreasoningcode
—
— —
LFM2 24B 4个月前
Liquid AI · 24B
Liquid AI 混合架构 24B — 卷积+注意力融合,激活仅 2.3B 极省资源
— — 32K ctx —
发布 2025-11 架构 MoE
chatedgerag
—
— —
Llama 3.1 8B ★ 1年前
Meta · 8B
Meta 通用 8B 模型 — 质量与速度的完美平衡,日常任务首选
— — 128K ctx —
发布 2024-07 架构 Dense
chatcodereasoning
—
— —
Llama 3.1 405B 1年前
Meta · 405B
Meta 最大开源稠密模型 — 405B 参数,开源旗舰性能标杆
— — 128K ctx —
发布 2024-07 架构 Dense
chatreasoningcode
—
— —
Llama 3.2 1B 1年前
Meta · 1B
Meta 最小 Llama — 边缘设备和嵌入式应用专属
— — 128K ctx —
发布 2024-09 架构 Dense
chatedge
—
— —
Llama 3.2 3B 1年前
Meta · 3B
Meta 轻量 3B — 移动端与边缘计算的理想选择
— — 128K ctx —
发布 2024-09 架构 Dense
chatcode
—
— —
Llama 3.2 11B Vision 1年前
Meta · 11B
Meta 多模态视觉模型 — 图文理解能力全面升级
— — 128K ctx —
发布 2024-09 架构 Dense
chatvision
—
— —
Llama 3.3 70B ★ 1年前
Meta · 70B
Meta 70B 级别最佳开源模型 — 综合能力超越同级竞品
— — 128K ctx —
发布 2024-12 架构 Dense
chatreasoningcode
—
— —
Llama 4 Maverick 17B-128E 11个月前
Meta · 400B
Meta MoE 多模态旗舰 — 128 专家激活 17B,百万 token 超长上下文
— — 1.024M ctx —
发布 2025-04 架构 MoE MoE 激活 17B
chatvisionreasoningcode
—
— —
Llama 4 Scout 17B ★ 11个月前
Meta · 109B
Meta MoE 轻量版 — 16 专家激活 17B,效率与能力并重
— — 128K ctx —
发布 2025-04 架构 MoE
chatvisionreasoning
—
— —
Ministral 8B 1年前
Mistral AI · 8B
Mistral 高效 8B — 小体积高性能,推理速度领先同级
— — 32K ctx —
发布 2024-10 架构 Dense
chat
—
— —
Mistral 7B v0.3 1年前
Mistral AI · 7B
Mistral 经典 7B — 滑动窗口注意力机制,长文处理能力出色
— — 32K ctx —
发布 2024-05 架构 Dense
chatreasoning
—
— —
Mistral Nemo 12B 1年前
Mistral AI · 12B
Mistral 多语言 12B — 128K 超长上下文,多语言对话优秀
— — 128K ctx —
发布 2024-07 架构 Dense
chatmultilingual
—
— —
Mistral Small 3.1 24B ★ 1年前
Mistral AI · 24B
Mistral 多模态 24B — 支持视觉输入,均衡性能与效率
— — 128K ctx —
发布 2025-03 架构 Dense
chatvisioncode
—
— —
Mixtral 8x7B 2年前
Mistral AI · 47B
Mistral 经典 MoE — 8 专家激活 12.9B,速度快质量高
— — 32K ctx —
发布 2023-12 架构 MoE MoE 激活 12.9B
chatcode
—
— —
Mixtral 8x22B 1年前
Mistral AI · 141B
Mistral 大型 MoE — 8 专家激活 39B,旗舰推理性能
— — 64K ctx —
发布 2024-04 架构 MoE MoE 激活 39B
chatcodereasoning
—
— —
Nemotron Nano 9B v2 9个月前
NVIDIA · 9B
NVIDIA Mamba2 混合架构 9B — 深度推理能力独特的架构设计
— — 128K ctx —
发布 2025-06 架构 Dense
reasoning
—
— —
Nemotron 3 Nano 30B 9个月前
NVIDIA · 30B
NVIDIA MoE 30B — 百万 token 超长上下文,激活仅 3B 超省内存
— — 1.024M ctx —
发布 2025-06 架构 MoE
chatreasoning
—
— —
OLMo 2 32B 1年前
Allen AI · 32B
Allen AI 完全开放研究模型 — 训练数据代码全公开,学术首选
— — 4K ctx —
发布 2025-03 架构 Dense
chatreasoning
—
— —
Phi-3.5 Mini 1年前
Microsoft · 3.8B
Microsoft 高效小模型 — 超长上下文支持,轻量化性能出色
— — 128K ctx —
发布 2024-08 架构 Dense
reasoningcodechat
—
— —
Phi-4 14B ★ 1年前
Microsoft · 14B
Microsoft 推理专注 14B — 数学与科学推理能力显著提升
— — 16K ctx —
发布 2024-12 架构 Dense
reasoningcode
—
— —
Phi-4 Mini Reasoning 11个月前
Microsoft · 3.8B
Microsoft 轻量推理专属模型 — 小体积释放强推理潜力
— — 16K ctx —
发布 2025-04 架构 Dense
reasoning
—
— —
Qwen 2.5 7B 1年前
Alibaba · 7B
阿里云 7B 多语言强模 — 中文和代码能力领先同级
— — 128K ctx —
发布 2024-09 架构 Dense
chatmultilingualcode
—
— —
Qwen 2.5 14B 1年前
Alibaba · 14B
阿里云 14B 均衡旗舰 — 同级别质量最优,性价比极高
— — 128K ctx —
发布 2024-09 架构 Dense
chatmultilingualreasoning
—
— —
Qwen 2.5 32B 1年前
Alibaba · 32B
阿里云 32B 推理旗舰 — 强大的多语言与逻辑推理能力
— — 128K ctx —
发布 2024-09 架构 Dense
chatmultilingualreasoning
—
— —
Qwen 2.5 72B 1年前
Alibaba · 72B
阿里云顶级开源 72B — Qwen 2.5 系列最强,综合能力全面
— — 128K ctx —
发布 2024-09 架构 Dense
chatmultilingualreasoningcode
—
— —
Qwen 2.5 Coder 1.5B 1年前
Alibaba · 1.5B
阿里云超轻量编程模型 — 极低资源占用,代码补全入门
— — 32K ctx —
发布 2024-11 架构 Dense
code
—
— —
Qwen 2.5 Coder 7B 1年前
Alibaba · 7B
阿里云编程专属 7B — 代码生成与理解能力突出
— — 128K ctx —
发布 2024-11 架构 Dense
code
—
— —
Qwen 2.5 Coder 32B ★ 1年前
Alibaba · 32B
阿里云开源编程旗舰 — 发布时开源代码模型第一名
— — 128K ctx —
发布 2024-11 架构 Dense
code
—
— —
Qwen 3 1.7B 11个月前
Alibaba · 1.7B
阿里云紧凑型多语言 Qwen 3 — 超小体积支持多语言对话
— — 32K ctx —
发布 2025-04 架构 Dense
chatmultilingual
—
— —
Qwen 3 4B 11个月前
Alibaba · 4B
阿里云 Qwen 3 通用 4B — 轻量高效,日常任务覆盖全面
— — 32K ctx —
发布 2025-04 架构 Dense
chatcode
—
— —
Qwen 3 8B 11个月前
Alibaba · 8B
阿里云 Qwen 3 8B — 支持深度思考模式,推理能力跃升
— — 128K ctx —
发布 2025-04 架构 Dense
chatcodereasoning
—
— —
Qwen 3 14B 11个月前
Alibaba · 14B
阿里云 Qwen 3 14B — 思考模式全开,全能型选手
— — 128K ctx —
发布 2025-04 架构 Dense
chatcodereasoning
—
— —
Qwen 3 30B-A3B 11个月前
Alibaba · 30B
阿里云 MoE 30B — 激活仅 3.3B 参数,极致效率与强大能力并存
— — 128K ctx —
发布 2025-04 架构 MoE MoE 激活 3B
chatreasoning
—
— —
Qwen 3 32B ★ 11个月前
Alibaba · 32B
阿里云 Qwen 3 旗舰稠密 32B — 强推理能力,完整参数全激活
— — 128K ctx —
发布 2025-04 架构 Dense
chatcodereasoning
—
— —
Qwen 3 235B-A22B 11个月前
Alibaba · 235B
阿里云巨型 MoE — 235B 总参数激活 22B,前沿级推理质量
— — 128K ctx —
发布 2025-04 架构 MoE MoE 激活 22B
chatcodereasoning
—
— —
Qwen 3 Coder 480B 8个月前
Alibaba · 480B
阿里云最大编程 MoE — 480B 激活 35B,开源编程天花板
— — 256K ctx —
发布 2025-07 架构 MoE
code
—
— —
Qwen 3.5 0.8B 1个月前
Alibaba · 0.8B
阿里云超迷你 0.8B — 嵌入式和边缘端部署首选
— — 32K ctx —
发布 2026-02 架构 Dense
chatedge
—
— —
Qwen 3.5 2B 1个月前
Alibaba · 2B
阿里云多模态 Qwen 3.5 2B — 原生视觉理解,轻量部署
— — 32K ctx —
发布 2026-02 架构 Dense
chatmultilingual
—
— —
Qwen 3.5 4B 1个月前
Alibaba · 4B
阿里云多模态 Qwen 3.5 4B — 图文并茂,小体积全能型
— — 32K ctx —
发布 2026-02 架构 Dense
chatmultilingual
—
— —
Qwen 3.5 9B ★ 1个月前
Alibaba · 9B
阿里云多模态 Qwen 3.5 9B — 视觉+语言中型均衡旗舰
— — 32K ctx —
发布 2026-02 架构 Dense
chatvision
—
— —
Qwen 3.5 27B 1个月前
Alibaba · 27.8B
阿里云旗舰原生多模态 27B — 视觉理解与长文处理顶级配置
— — 256K ctx —
发布 2026-02 架构 Dense
chatvisionreasoning
—
— —
Qwen 3.5 35B-A3B 1个月前
Alibaba · 35B
阿里云多模态高效 MoE — 35B 激活 3B,视觉能力资源双优
— — 256K ctx —
发布 2026-02 架构 MoE MoE 激活 3.3B
chatvision
—
— —
Qwen 3.5 122B-A10B 1个月前
Alibaba · 122B
阿里云大型多模态 MoE — 122B 激活 10B,强大视觉推理
— — 256K ctx —
发布 2026-02 架构 MoE MoE 激活 10B
chatvisionreasoning
—
— —
Qwen 3.5 397B-A17B 1个月前
Alibaba · 397B
阿里云旗舰超大多模态 MoE — 397B 激活 17B,多模态天花板
— — 256K ctx —
发布 2026-02 架构 MoE MoE 激活 17B
chatvisionreasoningcode
—
— —
SmolLM3 3B 8个月前
HuggingFace · 3B
HuggingFace 轻量多语言 3B — 推理能力强,资源友好型选手
— — 128K ctx —
发布 2025-07 架构 Dense
chatreasoning
—
— —
TinyLlama 1.1B 2年前
Community · 1.1B
社区超轻量 1.1B — 极度受限设备的最后选择
— — 2K ctx —
发布 2024-01 架构 Dense
chatedge
—
— —