DeepSeek V2/V3中的MLA和Matrix Absorption
原创 已于 2025-10-19 18:23:53 修改 2025-2-4 00:49:11 Author: blog.csdn.net(查看原文) 阅读量:0 收藏

原创 已于 2025-10-19 18:23:53 修改 · 2.5k 阅读

· 9

· 5 ·

CC 4.0 BY-SA版权

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

于 2025-02-04 08:49:11 首次发布

DeepSeek V3的网络结构基本沿用了DeepSeek V2,采用了MLA和DeepSeekMoE两大特性。本文主要涉及MLA(Multi-Head Latent Attention)。抛开维度变化,DeepSeek V3与V2在MLA结构上差别不大。详细请参见官方论文《DeepSeek-V3 Technical Report》和《DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language Model》。

关于MLA的介绍网上很多,不多讲了。这里将论文中的示意图,公式与官方代码(modeling_deepseek.py)的对应关系做了标注。
在这里插入图片描述
论文中还提到matrix absorption的优化:
Fortunately, due to the associative law of matrix multiplication, we can absorb WUKW^{UK}WUK into WUQW^{UQ}WUQ, and WUVW^{UV}WUV into WOW^{O}WO.

为了方便看出差别,这里按论文中的convention整了下matrix absorption后的示意图和公式,并标注了对应关系。代码由于官方没给出,参考的是SGLang中python/sglang/srt/models/deepseek_v2.py里的DeepseekV2AttentionMLA::forward_absorb
在这里插入图片描述
本质上是利用了矩阵乘的结合率,将MHA转为MQA。其中matrix absorption的部分由于计算只涉及权重参数,因此可以提到初始化时,或者离线做。实现可以参考FlashInfer中tests/test_mla_decode_kernel.py中的DeepseekV2AttentionMatAbsorbDecode

但注意该优化适用于generation阶段,不适用于prefill阶段。看下优化前后的相关两部分计算量比较:

在这里插入图片描述


在这里插入图片描述

将模型参数代入可发现,generation阶段时可以减少计算量,而prefill阶段时不能。


文章来源: https://blog.csdn.net/ariesjzj/article/details/145392128
如有侵权请联系:admin#unsafe.sh