Files
openmlsys-zh/chapter_backend_and_runtime/memory_allocator.md
zjuchujinjin cef59fa233 fix bug for ch05 (#444)
Co-authored-by: chujinjin <chujinjin52@huawei.com>
Co-authored-by: Tanzhipeng <Rudysheeppig@users.noreply.github.com>
2023-03-31 17:40:13 +08:00

9.6 KiB
Raw Permalink Blame History

内存分配

🏷️ch05-sec-memory_pool

内存在传统计算机存储器层次结构中有着重要的地位它是连接高速缓存和磁盘之间的桥梁有着比高速缓存更大的空间比磁盘更快的访问速度。随着深度学习的发展深度神经网络的模型越来越复杂AI芯片上的内存很可能无法容纳一个大型网络模型。因此对内存进行复用是一个重要的优化手段。此外通过连续内存分配和 In-Place内存分配还可以提高某些算子的执行效率。

Device内存概念

在深度学习体系结构中通常将与硬件加速器如GPU、AI芯片等相邻的内存称之为设备Device内存而与CPU相邻的内存称之为主机Host内存。如 :numref:host-device-memory所示CPU可以合法地访问主机上的内存而无法直接访问设备上的内存同理AI芯片可以访问设备上的内存却无法访问主机上的内存。因此在网络训练过程中往往需要从磁盘加载数据到主机内存中然后在主机内存中做数据处理再从主机内存拷贝到设备内存中最后设备才能合法地访问数据。算子全部计算完成后用户要获取训练结果又需要把数据从设备内存拷贝到主机内存中。

主机内存和设备内存 :width:800px 🏷️host-device-memory

内存分配

内存分配模块主要负责给图中算子的输入、输出分配Device内存。用户的前端脚本经过编译器前端处理后得到中间表达后端根据中间表达进行算子选择和相关优化可以得到算子最终的输入输出张量的形状、数据类型Data Type、格式Format等信息根据这些信息可以计算出算子输入、输出张量的尺寸大小。基本的计算方法如式$size=\left (\prod_{i=0}^{dimension}shape_i\right ) * sizeof\left ( data type \right )$所示。得到张量的尺寸大小后往往还需要对内存大小进行对齐操作。内存通常以4字节、8字节或16字节为一组进行访问如果被搬运的内存大小不是这些值的倍数内存后面会填充相应数量的空数据以使得内存长度达到这些值的倍数。因此访问非对齐的内存可能会更加耗时。

内存分配示例 :width:800px 🏷️memory_allocate

下面以 :numref:memory_allocate为例介绍内存分配的大致流程。首先给输入张量、Conv2D的权重和Conv2D的输出分配内存地址。然后为BatchNorm的输入分配地址时发现BatchNorm的输入就是Conv2D算子的输出而该张量的地址已经在之前分配过了因此只需要将Conv2D算子的输出地址共享给BatchNorm的输入就可以避免内存的重复申请以及内存的冗余拷贝。以此类推可以发现整个过程中可以将待分配的内存分成三种类型一是整张图的输入张量二是算子的权重或者属性三是算子的输出张量三种类型在训练过程中的生命周期有所不同。

在CPU上常常使用malloc函数直接申请内存这种方式申请内存好处是随时申请随时释放简单易用。然而在许多对性能要求严苛的计算场景中由于所申请内存块的大小不定频繁申请释放会降低性能。通常会使用内存池的方式去管理内存先申请一定数量的内存块留作备用当程序有内存申请需求时直接从内存池中的内存块中申请。当程序释放该内存块时内存池会进行回收并用作后续程序内存申请时使用。 在深度学习框架中,设备内存的申请也是非常频繁的,往往也是通过内存池的方式去管理设备内存,并让设备内存的生命周期与张量的生命周期保持一致。不同的深度学习框架在内存池的设计上大同小异,以:numref:device_malloc的MindSpore框架内存申请为例进程会从设备上申请足够大的内存然后通过双游标从两端偏移为张量分配内存。首先从申请的首地址开始进行偏移为算子权重的张量分配内存这部分张量生命周期较长往往持续整个训练过程。然后从申请设备地址的末尾开始偏移为算子的输出张量分配内存这部分内存的生命周期较短往往在该算子计算结束并且后续计算过程中无需再次使用该算子的输出的情况下其生命周期就可以结束。通过这种方式只需要从设备上申请一次足够大的内存后续算子的内存分配都是通过指针偏移进行分配减少了直接从设备申请内存的耗时。

双游标法分配内存 :width:800px 🏷️device_malloc

内存复用

在机器学习系统中,内存复用是指分析张量的生命周期,将生命周期结束的张量的设备内存释放回内存池并用于后续张量的内存分配。内存复用的目的是提高内存的利用率,让有限的设备内存容纳更大的模型。 以 :numref:memory_allocate为例当BatchNorm算子计算结束后输出1不再被任何算子使用则该张量的设备内存可以被回收并且如果输出1的内存尺寸大于等于输出3的内存尺寸则从输出1回收的地址可以用于输出3的内存分配从而达到复用输出1地址的目的。

内存生命周期图 :width:800px 🏷️combine_memory_reuse_and_no_reuse

为了更好地描述内存复用问题,通过内存生命周期图来辅助理解。如 :numref:combine_memory_reuse_and_no_reuse所示,图中横坐标表示张量的生命周期,图中纵坐标表示内存大小。在生命周期内,某一个张量将一直占用某块设备内存,直至生命周期结束才会释放相应内存块。通过张量生命周期和内存大小可以构造出矩形块,而内存分配要求解的目标是在内存生命周期图中容纳更多的矩形块,问题的约束是矩形块之间无碰撞。 :numref:combine_memory_reuse_and_no_reuse左边是在未使用任何内存复用策略的情况下的内存生命周期图此时内存同时只能容纳T0、T1、T2、T3四个张量。

内存复用策略的求解是一个NP完全的问题。许多深度学习框架通常采用贪心的策略去分配内存例如采用BestFit算法每次直接从内存池中选取可以满足条件的最小内存块然而这种贪心的策略往往会陷入局部最优解而无法求得全局最优解。为了更好地逼近内存分配策略全局最优解MindSpore框架提出了一种新的内存分配算法 SOMASSafe Optimized Memory Allocation Solver安全优化的内存分配求解器。SOMAS将计算图并行流与数据依赖进行聚合分析得到算子间祖先关系构建张量全局生命周期互斥约束使用多种启发式算法求解最优的内存静态规划实现逼近理论极限的内存复用从而提升支持的内存大小。

由 :numref:combine_memory_reuse_and_no_reuse右边所示经过SOMAS求解之后同样的内存大小可支持的Tensor数量达到了7个。

常见的内存分配优化手段

内存融合

上述内存分配的方式都是以单个张量的维度去分配的每个张量分配到的设备地址往往是离散的。但是对于某些特殊的算子如AllReduce通信算子需要为它们分配连续的内存。通信算子的执行包含通信等待、数据搬移、计算等步骤而在大规模分布式集群的场景下通信的耗时往往是性能瓶颈。针对这种场景如 :numref:memory_fusion所示,可以将多个通信算子融合成一个,为通信算子的输入分配连续的内存,从而减少通信的次数。 又比如分布式训练中的神经网络权重初始化,通常将一个训练进程中的权重初始化,然后将该权重广播到其他进程中。当一个网络有较多权重的时候,需要多次进行广播。通常可以为所有权重分配连续的内存地址,然后广播一次,节省大量通信的耗时。

通信算子内存融合 :width:800px 🏷️memory_fusion

In-Place算子

在内存分配流程中会为每个算子的输入和输出都分配不同的内存。然而对很多算子而言为其分配不同的输入和输出地址会浪费内存并且影响计算性能。例如优化器算子其计算的目的就是更新神经网络的权重例如Python语法中的 += 和 *= 操作符,将计算结果更新到符号左边的变量中;例如 a[0]=b 语法,将 a[0] 的值更新为 b。诸如此类计算有一个特点都是为了更新输入的值。下面以张量的 a[0]=b 操作为例介绍In-Place的优点。 :numref:inplace-op左边是非In-Place操作的实现step1将张量a拷贝到张量a'step2将张量b赋值给张量a'step3将张量a'拷贝到张量a。 :numref:inplace-op右边是算子In-Place操作的实现仅用一个步骤将张量b拷贝到张量a对应的位置上。对比两种实现可以发现In-Place操作节省了两次拷贝的耗时并且省去了张量a'内存的申请。

In-Place算子内存分配 :width:800px 🏷️inplace-op

这节简单介绍了设备内存的概念,内存分配的流程,和一些优化内存分配的方法。内存分配是编译器后端的最重要部分之一,内存的合理分配,不仅关系到相同内存容量下能否支持更大的网络模型,也关系到模型在硬件上的执行效率。