63_LLM_大语言模型_部署加速方法_PagedAttention篇
文章目录
LLM(大语言模型)部署加速方法——PagedAttention篇
来自: AiGC面试宝典
扫码 查看更
一、vLLM 用于大模型并行推理加速 存在什么问题?
vLLM 用于大模型并行推理加速,其中核心改进是PagedAttention算法,在 vLLM 中,我们发现 LLM 服务的性能受到内存的瓶颈。在自回归解码过程中,LLM 的所有输入标记都会生成其key和value张量,并且这些张量保存在 GPU 内存中以生成下一个token。这些缓存的key和value张量通常称为 KV 缓存。KV缓存是:
• 占用大: LLaMA-13B 中的单个序列最多占用 $1.7\mathsf{G B},$ 。
• 动态变化:其大小取决于序列长度,序列长度变化很大且不可预测。因此,有效管理 KV 缓存提出了重大挑战。我们发现现有系统由于碎片和过度预留而浪费了 $60%-80%$ 的内存。
二、vLLM 如何 优化 大模型并行推理加速?
vllm引入了PagedAttention,这是一种受操作系统中虚拟内存和分页的经典思想启发的注意力算法。
三、什么是 PagedAttention?
与传统的注意力算法不同,PagedAttention 允许在不连续的内存空间中存储连续的key和value。
四、PagedAttention 如何存储 连续的key和value?
具体来说,PagedAttention 将每个序列的 KV 缓存划分为块,每个块包含固定数量token的key和value。在注意力计算过程中,PagedAttention 内核有效地识别并获取这些块。
图一:PagedAttention
因为块在内存中不需要是连续的,所以我们可以像在操作系统的虚拟内存中一样以更灵活的方式管理key和value:可以将块视为页面,将token视为字节,将序列视为进程。序列的连续逻辑块通过块表映射到非连续物理块。当新代币生成时,物理块会按需分配。
五、 PagedAttention 技术细节?
-
在 PagedAttention 中,内存浪费仅发生在序列的最后一个块中。实际上,这会导致内存使用接近最佳,浪费率低于 $4%$ 。事实证明,内存效率的提高非常有益:它允许系统将更多序列一起批处理,提高 GPU 利用率,从而显着提高吞吐量,如上面的性能结果所示;
-
PagedAttention 还有另一个关键优势:高效的内存共享。例如,在并行采样中,从同一提示生成多个输出序列。在这种情况下,提示的计算和内存可以在输出序列之间共享。
-
Before generation.
Prompt:“Alan Turing is a computer scientist” Completion:"*
Physical KV cache blocks
Logical KV cache blocks
Blocktable
BlockO | ||||
Block 1 | ||||
Block 2 | ||||
Block3 |
Physical blockno. | #Filled slots |
二 | 一 |
二 | 二 |
一 | |
图二: 采样过程
PagedAttention 自然可以通过其块表实现内存共享。与进程共享物理页的方式类似
六、 PagedAttention 如何 实现安全共享?
• 动机:PagedAttention 中的不同序列可以通过将其逻辑块映射到同一物理块来共享块。这个时候就 设计到如何 安全共享问题;
• 思路:PagedAttention 跟踪物理块的引用计数并实现Copy-on-Write机制
0.Shared prompt:Map logical blocks to the same physical blocks.
图三 对多个输出进行采样的请求的示例生成过程
PageAttention 的内存共享极大地降低了复杂采样算法的内存开销,例如并行采样和波束搜索,将其内存占用降低高达 $55%$ 。这可以将吞吐量提高高达 2.2 倍。
七、 PagedAttention 源码介绍?
PagedAttention 是 vLLM 背后的核心技术,vLLM 是 LLM 推理和服务引擎,支持各种具有高性能和易于使用的界面的模型。从vllm的源码中我们可以看出来,vllm是怎么样对于huggingface models上的模型进行推理优化的。
文章作者 大模型
上次更新 2025-03-09