您的位置:首页 > 财经 > 产业 > 谁给个能用的网址_石家庄百度推广_郑州网络营销顾问_网络营销首先要做什么

谁给个能用的网址_石家庄百度推广_郑州网络营销顾问_网络营销首先要做什么

2025/4/16 19:14:01 来源:https://blog.csdn.net/weixin_44245188/article/details/147155200  浏览:    关键词:谁给个能用的网址_石家庄百度推广_郑州网络营销顾问_网络营销首先要做什么
谁给个能用的网址_石家庄百度推广_郑州网络营销顾问_网络营销首先要做什么

KV Cache

KV Cache是大模型标配的推理加速功能,也是推理过程中,显存资源巨大开销的元凶之一。在模型推理时,KV Cache在显存占用量可达30%以上。

目前大部分针对KV Cache的优化工作,主要集中在工程上。比如著名的VLLM,基于paged Attention,最大限度地利用碎片化显存空间,从而提升了空间利用率。

但是这些方案并没有从根本上改变KV Cache占用空间巨大的问题。

我们先来看看KV Cache的基本原理,然后在文章后面详细介绍DeepSeek MLA机制时,再来看DeepSeek-V2是怎么解决这个问题的。
KV Cache基本原理

如果不熟悉Transformer的生成过程,这部分推荐看看国外博主Jay Alammar的这篇文章:https://jalammar.github.io/illustrated-gpt2/

我们先回到Transformer计算Attention的公式,

大模型的推理是一个自回归的过程,即一个从头到尾逐步生成的过程。下一步的输出,取决于上一步。

假如我们需要输出Robot must obey orders这四个字。

模型生成第一步Robot时,会接收一个特殊字符,作为第一步的输入,然后输出Robot。接着将“ Robot”作为第二步的输入,生成must,以此类推,直到模型输出遇到最大长度限制,或者输出了停止字符,则停止输出过程。

我们来模拟一个输出过程中每一步全局的Masked Attention的计算过程。这里公式中忽略了

以便展示。

每一行代表一个查询向量与所有键向量的点积,但由于掩码的存在,每个查询只能访问它自己和之前的键(因果关系)。毕竟在生成的过程中,是不能看到后续的值的。

最后输出的softmax结果大概如下:

然后再将这个softmax结果,和对应的V值进行计算。在这个过程中,上面的矩阵计算,四行的Attention拆解下来如下,

我们可以发现这么一些规律:

每一个

的计算,只取决于当前步的,不需要以前的

。
之前的K和V,在后面会被重复利用。

那么这里就很清楚了,随着生成序列的增加,计算Attention的增多,前面步骤的K和V都需要参与后续的计算。

所以我们如果将之前的K和V都存储下来,就不用在当前这一步,再重新生成计算一次以前生成过的K和V。这就是KV Cache。一种空间换时间的做法。

所以可以看出,随着序列增长,需要存储的K和V逐渐增多,因此推理中产生的开销也会越大。
MOE架构

MOE层替代的是传统Transformer架构中FFN这一层。就是图中框红圈的Feed Forward层。

之前有写过一篇介绍大模型推理加速的文章,
队长:大模型推理加速,从逮虾户说起34 赞同 · 0 评论文章

阐述了FFN层

的几个问题,

第一,是FFN层参数量巨大,大概占了整个模型参数量的三分之二左右。

第二,FFN层的激活存在较大的稀疏性,也就是针对某些问题的输入,FFN层只有部分的参数是有用的。

MOE架构主要针对第二个问题进行了较大的改进。简而言之就是将一个完整的FFN,替换成由多个“专家网络

”组成的神经网络,这个神经网络可以是简单的FFN,或者其它结构。从而在推理或者训练时,能够针对不同的数据进行解耦,增加效率。

从上图的结构可以看出,MOE架构包含两个部分:

一个是之前说的多个专家网络组成的稀疏MOE层。
另一个是门控网络,决定了模型的输入,需要由哪个专家网络进行处理。

这么做的好处在推理中体现如下,

首先,提升了模型的拓展性,MoE的每个专家都负责处理一部分数据。这意味着整个模型可以包含大量的专家(和相应的参数),而每次只有少部分专家被激活处理特定的数据。这样,我们可以扩展模型的能力而不必担心处理速度变慢。

只有被门控机制选中的专家才会参与到当前输入的处理中。这不仅使模型在处理单个任务时更为高效,而且大大减少了不必要的计算,每个专家只计算与其专长相关的数据。

不过,也有随之而来的问题,最主要的问题是,需要设计一个高效和公平的门控机制,即负载均衡问题。它需要确保正确的专家被激活,同时避免某些专家被过度使用而其他专家则几乎闲置。

此外,还得确保每个专家都能得到足够的训练,以避免过拟合或欠拟合的问题,否则输出的稳定性会受到极大影响。
DeepSeek-V2详解

说完了背景知识,KV Cache和MOE,以及它们存在的一些问题。

我们可以来看看DeepSeek-V2对上述两个核心部分到底做了哪些改进。
Multiple Latent Attention

MLA是对传统多头注意力做的改进,其目的有两个:

降低推理过程中的KV Cache资源开销。
缓解MQA、MGA对性能的损耗。

首先来说第一点,之前介绍KV Cache中,提到每一步都需要将K和V缓存下来。假设单个Attention Block块中的多头注意力,有n个头,每个k和v的维度为d,则每一步需要缓存的参数量为

,l为block的块数。

因此,MLA立足于在推理中,降低

。对Key和Value进行了一个低秩联合压缩。

简单理解就是,假设有个矩阵的维度是
,那么可以将其分解为两个的矩阵相乘,而

。这样就降低了存储量。

具体来看看DeepSeek中的具体实现公式:

是对Key和Value压缩后的隐向量,通过一个降维映射矩阵和模型输入得到。的维度,远小于多头key和value的原始维度

得到这个
后,具体的key和value,由两个对应的升维矩阵和

还原。

在推理的过程中,只需要缓存每一步的
,然后再计算还原回原始的K和V即可。由于的维度远小于K、V。因此每一步token的推理产生的缓存由之前的,变成

另外,之前提到KV Cache中,Q的作用只发生在当下,但是在模型训练的过程中,每个输入的token会通过多头注意力机制生成对应的query、key和value。这些中间数据的维度往往非常高,因此占用的内存量也相应很大。所以论文中也提到,为了降低训练过程中的激活内存activation memory,DeepSeek-V2还对queries进行低秩压缩,即便这并不能降低KV Cache。

对Q的压缩方式和K、V一致。

至此,架构图中红圈部分已解释完毕。
位置编码解耦

从架构图中发现,DeepSeek-V2的q和k各自都有2个部分。1个部分是刚刚解释过的压缩部分,而另外的1个部分,加上了RoPE位置编码

。做了一个位置编码的解耦。

在RoPE的实现中,如果我们要让Q、K带上位置信息,会分别乘以相应的位置编码矩阵。

如果计算

时,就变成了

DeepSeek-V2对Q和K都进行了压缩,则整个过程变成:

这里,
和 分别是用于从低秩表示恢复到原始维度的解压缩矩阵。问题在于,由于低秩表示已经是压缩了的状态,直接在 和 上应用 和

不再等价于在完整的Q和K上应用位置编码。这是因为压缩操作可能已经丢失了某些信息,使得位置编码不能直接和有效地反映原始Q和K的位置关系。

为了解决这个问题,Deepseek-V2设计了两个pe结尾的变量用于储存旋转位置编码的信息,将信息存储和旋转编码解耦开。

最后将这四个变量分别拼接起来,形成带信息压缩的Q、K,以及带位置信息的Q、K,进行最后的计算。

最终,单个Token产生的缓存包含了两个部分,即

同时,与GQA和MQA相比,不同于MQA和GQA可能因合并或分组而丢失细节信息,MLA的压缩是基于保持尽可能多的原始信息的前提下进行的。这使得模型在执行注意力操作时,能够利用到更精确的信息,从而提高整体的性能。
DeepSeek MOE

DeepSeekMoE引入了两个主要策略:

细粒度专家分割(Fine-Grained Expert Segmentation):通过将每个FFN专家进一步细分,这允许模型在保持参数总数不变的情况下,激活更多的、更细粒度的专家。这种策略使得各个专家能够专注于更细致的知识领域,提高了专家的专业化程度。
共享专家隔离(Shared Expert Isolation):设置一部分专家作为“共享专家”,这些专家总是被激活,用于捕捉和整合常见的跨上下文知识。这样可以减少路由专家之间的知识冗余,每个路由专家可以更专注于独特的知识领域。

上图摘取自DeepSeek MOE的技术报告,从左到右分别是传统的MOE,细粒度专家分割,细粒度专家分割+共享专家隔离。

这两个策略是对缓解传统MoE的缺陷进行的改进,

知识杂糅(Knowledge Hybridity):传统的MoE模型中,每个专家往往需要处理多种类型的知识,这使得专家难以形成专门化的知识结构。
知识冗余(Knowledge Redundancy):不同的专家在处理不同的输入时可能需要相同的知识,导致多个专家中存在重复的知识,浪费了模型参数。

针对上面的缺陷,业界其实有挺多人做过实验,例如这篇文章,

作者对Mixtral-8x7B进行了实验,想知道模型中不同的专家是否贡献相同。于是作者逐一去掉了网络中的专家,再对模型进行测试。最后发现expert 3的贡献远大于其它专家。

呈现出了一人干活,旁人看戏的特点。

显然,Mixtral-8x7B可能负载均衡没做好,导致了这个问题。

那么Deepseek MoE是否也有类似的问题呢?

从技术报告的说明来看,似乎是没有,因为报告里专门写了一下,当只有4个路由专家被激活时,DeepSeekMoE 的表现(Pile 损失)也与基于GShard架构的同等参数量模型相当。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com