华为发布了使用昇腾 NPU 训练的开放权重模型
华为发布盘古 Pro MoE 模型,参数720亿,优化昇腾硬件,在推理性能上领先同类模型,并在Gitcode开放,但禁止欧盟使用。 2025-7-2 10:36:0 Author: www.solidot.org(查看原文) 阅读量:19 收藏

华为发布了使用其昇腾 NPU 训练的开放权重模型,模型发布在 Gitcode 上,其许可证禁止欧盟地区使用。被称为盘古 Pro MoE 的模型总参数 720 亿,每个 token 激活 160 亿参数。模型为昇腾 300I Duo 和 800I A2 进行了优化,单卡推理性能达到了 1148 token/s,通过预测加速(speculative acceleration)能进一步提高到 1528 token/s。华为研究人员称,在参数低于 1000 亿的模型中,盘古 Pro MoE 的性能超越了 GLM-Z1-32B 和 Qwen3-32B 等知名开放权重模型。

arxiv.org/abs/2505.21411
gitcode.com/ascend-tribe/pangu-pro-moe-model


文章来源: https://www.solidot.org/story?sid=81703
如有侵权请联系:admin#unsafe.sh