国产MoEMIT
DeepSeek-V4-Flash
DeepSeek V4 的较小规格 MoE:总参约 284B、激活约 13B,标称 1M 上下文,同样有多档推理可选。比 Pro 轻一档,消费级单卡仍难吃下,多卡或机构环境更合适。
DeepSeek·284B 参数·MoE·发布于 2026-04-24
你的硬件评估
正在检测硬件...
❓ 未知
参数量
284B
激活 13B
上下文长度
1024K tokens
架构
MoE
284B 总参数
最低显存
103 GB
Q2_K · 本地运行约需
量化选项
2 种
适用场景
对话推理代码长文本
量化版本对比(GGUF / 本地运行)
磁盘约:该量化档典型 GGUF 单文件占用(未填 fileSize 时用同档显存约值代替)。 所需显存:在 GPU 上跑该档的约需(权重 + KV 等余量),站内人工标定。
| 格式 | 位宽 | 磁盘约 | 所需显存 | 质量 | 预估速度 | 状态 |
|---|---|---|---|---|---|---|
| Q2_K | 2-bit | 103 GB | 103 GB | 低 | — | ❓ 未知 |
| Q4_K_M | 4-bit | 155 GB | 155 GB | 良好 | — | ❓ 未知 |
显存需求一览
柱状长度为各档「所需显存」相对比例。
Q2_K
103 GB
Q4_K_M
155 GB
资源链接
💡 关于 MoE 架构
DeepSeek-V4-Flash 采用 Mixture of Experts (MoE) 架构,总参数量为 284B, 但每次推理仅激活 13B 参数。虽然推理计算量较小, 但完整模型权重仍需全部加载到显存中,因此显存需求按总参数量计算。 实际推理速度会比同等显存占用的 Dense 模型更快。
推荐硬件配置
Q2_K→建议 ≥ 119 GB 显存(模型 103 GB + 15% 余量)
Q4_K_M→建议 ≥ 179 GB 显存(模型 155 GB + 15% 余量)