#人工智能 阿里巴巴通义千问团队继续推出小模型,最低仅 0.8B 参数适合在边缘设备上部署,而 9B 参数版智能甚至超过 120B 参数的开源同行。这些中型 / 小型模型的核心理念都是以更少的算力实现更高的智能,即不再单纯追求参数规模,而是通过优化模型架构、数据质量和强化学习来提升实际性能。查看全文:https://ourl.co/111984
早前阿里巴巴通义千问团队就推出 Qwen3.5 中型系列模型,中型模型的参数规模在 35B 左右,但在多项基准测试中可以紧追或超过 235B 的通义千问 Qwen3 系列模型。
现在通义千问团队继续推出小型系列模型,这些模型的核心理念都是以更少的算力实现更高的智能,也就是不再单纯追求参数规模,而是通过优化模型架构、数据质量和强化学习来提升实际性能。
最新推出的小型模型包括:
Qwen3.5-0.8B 版:参数规模仅 8 亿,小巧快速非常适合边缘设备
Qwen3.5-4B 版:参数规模为 40 亿,为轻量级智能体提供强大的多模态支持
Qwen3.5-9B 版:参数规模为 90 亿,更加紧凑的模型,紧追大型模型的能力但算力要求更低
还会推出规模更小的基础模型:
通义千问团队还预告称后续还会推出基础模型,这些基础模型的参数规模更小可以在硬件配置更低的设备上运行,不过暂时还不清楚这些参数规模更小的基础模型何时发布。
量化团队 Unsloth AI 也同步发布 Qwen3.5 小型系列模型的量化版本,经过量化后的版本可在仅 6GB (显存或内存) 的设备上运行,但实际 TPS 有多少还不清楚。
相关链接:
HuggingFace:https://huggingface.co/collections/Qwen/qwen35
ModelScope:https://modelscope.cn/collections/Qwen/Qwen35
GGUFs 量化版本:https://huggingface.co/collections/unsloth/qwen35
基准测试对比:
注:标题中所说的超过 120B 同行指的是 GPT-OSS-120B 版。


