国产MoEApache 2.0

Qwen3.6-35B-A3B

Qwen3.6 代首款开源权重:稀疏 MoE 视觉语言模型,35B 总参数仅激活 3B,Agentic 编程与多模态推理强化,原生 262K 上下文(可扩展至 1M+)

Alibaba·35B 参数·MoE·发布于 2026-04-16

你的硬件评估

正在检测硬件...
未知
参数量

35B

激活 3B

上下文长度

256K tokens

架构

MoE

35B 总参数

最低显存

21.4 GB

Q4_K_M · 本地运行约需

量化选项

3 种

适用场景

对话推理多模态代码

量化版本对比(GGUF / 本地运行)

磁盘约:该量化档典型 GGUF 单文件占用(未填 fileSize 时用同档显存约值代替)。 所需显存:在 GPU 上跑该档的约需(权重 + KV 等余量),站内人工标定。

格式位宽磁盘约所需显存质量预估速度状态
Q4_K_M4-bit21.4 GB21.4 GB
良好
未知
Q6_K6-bit27.7 GB27.7 GB
优秀
未知
Q8_08-bit36.1 GB36.1 GB
优秀
未知

显存需求一览

柱状长度为各档「所需显存」相对比例。

Q4_K_M
21.4 GB
Q6_K
27.7 GB
Q8_0
36.1 GB

资源链接

💡 关于 MoE 架构

Qwen3.6-35B-A3B 采用 Mixture of Experts (MoE) 架构,总参数量为 35B, 但每次推理仅激活 3B 参数。虽然推理计算量较小, 但完整模型权重仍需全部加载到显存中,因此显存需求按总参数量计算。 实际推理速度会比同等显存占用的 Dense 模型更快。

推荐硬件配置

Q4_K_M建议 ≥ 25 GB 显存(模型 21.4 GB + 15% 余量)
Q6_K建议 ≥ 32 GB 显存(模型 27.7 GB + 15% 余量)
Q8_0建议 ≥ 42 GB 显存(模型 36.1 GB + 15% 余量)