大模型到底需要消耗多少GPU显存?公式和工具全都有

文摘   2024-08-20 07:13   北京  
如何计算大模型到底需要多少显存,是常常被问起的问题,笔者在《探秘大模型应用开发》中有过详细的推算,详见:一文探秘LLM应用开发(12)-模型部署与推理(大模型相关参数计算及性能分析),通过文章可以清楚知道模型大小和显存占用的关系及计算方法。
现从实用角度再介绍一个简单公式和一个工具方便大家工作中使用。
1)估算公式(该公式来自于Sam Stoelinga简化[1]
符号描述
M用千兆字节 (GB) 表示的 GPU 内存
P模型中的参数数量。例如,一个 7B 模型有 7 亿参数。
4B4 字节,即每个参数使用的字节数
324 字节中有 32 位
Q加载模型时应使用的位数,例如 16 位、8 位或 4 位。
1.2表示在 GPU 内存中加载额外内容的 20% 开销。
注意:该公式只是为了简化计算的估计,并未包含kvcache所需显存以及context大小的影响。
下面以运行16位精度的 Llama 70B 模型所需的 GPU 内存为例套用公式:
该模型有 700 亿参数。
M = (70 ∗ 4) / (32 / 16) ∗ 1.2 ≈ 168GB
由此可见,模型所需的 GPU 内存相当大。单个 80GB 的 A100 GPU 不足以满足需求,需要多个A100 GPU才能跑的起来。
如何进一步减少 Llama 2 70B 所需的 GPU 内存?
量化(Quantization)是一种减少内存占用的方法。通过将模型参数的精度从浮点数降低到低位表示(如 8 位整数),量化显著降低了内存和计算需求,使模型在资源有限的设备上更高效地部署。然而,这需要仔细管理以保持模型的性能,因为降低精度可能会影响输出的准确性。
通常认为 8 位量化能实现与 16 位精度相似的性能。而 4 位量化可能会显著影响模型的性能。
让我们再举一个 4 位量化的 Llama 2 70B 的例子:
M = (70 ∗ 4) / (32 / 4) ∗ 1.2 ≈ 42GB
这意味着你可以使用 2 个 24GB 的 L4 GPU 来运行这个模型。

2)评估工具:

在此基础上,介绍一个能够自动计算显存能载入运行多大参数量模型的程序[2],它的输入如下:

  • 可用的 RAM(以 GB 为单位)

  • 估计操作系统 RAM 使用量(以 GB 为单位)

  • 上下文窗口大小(Token 数量)

  • 量化级别(Quantization level,每个参数的比特数)

计算过程:

  1. 将可用的 RAM 和操作系统的开销从 GB 转换为字节数。

  2. 通过将 Token 数量乘以 0.5 MB 并转换为字节数来计算上下文窗口所需的内存。

  3. 通过从总可用 RAM 中减去操作系统开销和上下文窗口内存,计算出可用的 RAM(以字节为单位)。

  4. 将量化级别从比特转换为每个参数的字节数。

  5. 通过将可用 RAM 除以每个参数的字节数来计算最大参数数量。

  6. 将结果从参数转换为以十亿为单位的参数数量进行显示。

确定上述输入后就能直接看到能够支持的最大参数量,如果计算出的最大参数量为负值,这表示上下文窗口大小对于可用的 RAM 来说太大了。在这种情况下,程序会显示一个错误信息,建议用户减少上下文窗口大小或增加可用的 RAM。


参考: 
[1]https://www.substratus.ai/blog/calculating-gpu-memory-for-llm

[2]https://github.com/RayFernando1337/LLM-Calc

后台回复“进群”入群讨论。

橱窗有更多精选好书,欢迎光顾。

AI工程化
专注于AI领域(大模型、MLOPS/LLMOPS 、AI应用开发、AI infra)前沿产品技术信息和实践经验分享。
 最新文章