当前位置:首页 > 阿里云发布通义 Qwen3-Next基础模型架构并开源80B-A3B系列:改进混合注意力机制、高稀疏度MoE结构
阿里云发布通义 Qwen3-Next基础模型架构并开源80B-A3B系列:改进混合注意力机制、高稀疏度MoE结构
作者:AI下载 发布时间:2025-09-16

9月12日消息,阿里云通义团队今日宣布推出其下一代基础模型架构Qwen3-Next,并开源了基于该架构的Qwen3-Next-80B-A3B系列模型(Instruct与Thinking)。

通义团队表示,ContextLengthScaling和TotalParameterScaling是未来大模型发展的两大趋势,为了进一步提升模型在长上下文和大规模总参数下的训练和推理效率,他们设计了全新的Qwen3-Next的模型结构。

该结构相比Qwen3的MoE模型结构,进行了以下核心改进:混合注意力机制、高稀疏度MoE结构、一系列训练稳定友好的优化,以及提升推理效率的多token预测机制。

基于Qwen3-Next的模型结构,通义团队训练了Qwen3-Next-80B-A3B-Base模型,该模型拥有800亿参数(仅激活30亿参数)、3B激活的超稀疏MoE架构(512专家,路由10个+1共享),结合HybridAttention(GatedDeltaNet+GatedAttention)与多Token预测(MTP)。

从官方获悉,该Base模型实现了与Qwen3-32Bdense模型相近甚至略好的性能,而它的训练成本仅为Qwen3-32B的十分之一不到,在32k以上的上下文下的推理吞吐则是Qwen3-32B的十倍以上,实现了极致的训练和推理性价比。

该模型原生支持262K上下文,官方称可外推至约101万tokens。据介绍,Instruct版在若干评测中接近Qwen3-235B,Thinking版在部分推理任务上超过Gemini-2.5-Flash-Thinking。

据介绍,其突破点在于同时实现了大规模参数容量、低激活开销、长上下文处理与并行推理加速,在同类架构中具有一定代表性。

模型权重已在HuggingFace以Apache-2.0许可发布,并可通过Transformers、SGLang、vLLM等框架部署;第三方平台OpenRouter亦已上线。