Files
openmlsys-zh/chapter_backend_and_runtime/memory_allocator.md
yuanzhigang 9a62d70335 change some words under section 6.4 (#143)
* Update intermediate_representation.md

fix bug

* Update accelerator_programming.md

* Update memory_allocator.md

* Update memory_allocator.md

Co-authored-by: Dalong <39682259+eedalong@users.noreply.github.com>
2022-03-20 10:43:24 +08:00

9.7 KiB
Raw Blame History

内存分配

🏷️ch05-sec-memory_pool

内存在传统计算机存储器层次结构中有着重要的地位它是连接高速缓存和磁盘之间的桥梁有着比高速缓存更大的空间比磁盘更快的访问速度。随着深度学习的发展深度神经网络的模型越来越复杂AI芯片上的内存很可能无法容纳一个大型网络模型。因此对内存进行复用是一个重要的优化手段。此外通过连续内存分配和 In-Place内存分配还可以提高某些算子的执行效率。

Device内存概念

在深度学习体系结构中我们通常将与硬件加速器如GPUAI芯片等相邻的内存称之为设备(Device)内存而与CPU相邻的内存称之为主机(Host)内存。如图 :numref:host-device-memory所示CPU可以合法地访问主机上的内存而无法直接访问设备上的内存同理AI芯片可以访问设备上的内存却无法访问主机上的内存。因此在网络训练过程中我们往往需要从磁盘加载数据到主机内存中然后在主机内存中做数据处理再从主机内存拷贝到设备内存中最后设备才能合法地访问数据。算子全部计算完成后用户要获取训练结果又需要把数据从设备内存拷贝到主机内存中。

主机内存和设备内存 :width:800px 🏷️host-device-memory

内存分配

内存分配模块主要负责给图中算子的输入、输出分配Device内存。用户的前端脚本经过编译器前端处理后得到中间表达后端根据中间表达进行算子选择和相关优化可以得到算子最终的输入输出Tensor的形状、数据类型(Data Type)、格式(Format)等信息根据这些信息我们可以计算出算子输入、输出Tensor的尺寸大小。基本的计算方法为:

size=\prod_{i=0}^{dimention}shape_i * sizeof\left ( data type \right )

得到Tensor的尺寸大小后往往还需要对内存大小进行对齐操作。内存通常以4字节、8字节或16字节为一组进行访问如果被搬运的内存大小不是这些值的倍数内存后面会填充相应数量的空数据以使得内存长度达到这些值的倍数。因此访问非对齐的内存可能会更加耗时。

内存分配示例 :width:800px 🏷️memory_allocate

下面以图 :numref:memory_allocate为例介绍内存分配的大致流程。首先我们会给Input Tensor、Conv2D的权重和Conv2D的输出分配内存地址。然后为BatchNorm的输入分配地址时我们发现BatchNorm的输入就是Conv2D算子的输出而该Tensor的地址已经在之前分配过了因此只需要将Conv2D算子的输出地址共享给BatchNorm的输入就可以避免内存的重复申请以及内存的冗余拷贝。以此类推可以发现整个过程中可以将待分配的内存分成三种类型一是整张图的输入Tensor二是算子的权重或者属性三是算子的输出Tensor三种Tensor在训练过程中的生命周期有所不同。

在CPU上我们常常使用malloc函数直接申请内存这种方式申请内存好处是随时申请随时释放简单易用。然而在许多对性能要求严苛的计算场景中由于所申请内存块的大小不定频繁申请释放会降低性能。通常我们会使用内存池的方式去管理内存先申请一定数量和大小的内存块留作备用当程序有内存申请需求时直接从内存池中的内存块中申请。当程序释放该内存块时内存池会进行回收并用作后续程序内存申请时使用。 在深度学习框架中Device内存的申请也是非常频繁的往往也是通过内存池的方式去管理Device内存并让Device内存的生命周期与Tensor的生命周期保持一致。不同的深度学习框架在内存池的设计上大同小异我们以图 :numref:device_malloc的MindSpore框架内存申请为例进程会从Device上申请足够大的内存然后通过双游标从两端偏移为Tensor分配内存。首先从申请的首地址开始进行偏移为算子权重的Tensor分配内存这部分Tensor生命周期较长往往持续整个训练过程。然后从申请Device地址的末尾开始偏移为算子的输出Tensor分配内存这部分内存的生命周期较短往往在该算子计算结束并且后续计算过程中无需再次使用该算子的输出的情况下其生命周期就可以结束。通过这种方式我们只需要从Device上申请一次足够大的内存后续算子的内存分配都是通过指针偏移进行分配减少了直接从设备申请内存的耗时。

双游标法分配内存 :width:800px 🏷️device_malloc

内存复用

在机器学习系统中内存复用是指分析Tensor的生命周期将生命周期结束的Tensor的Device内存释放回内存池并用于后续Tensor的内存分配。内存复用的目的是提高内存的利用率让有限的设备内存容纳更大的模型。 以图 :numref:memory_allocate为例当BatchNorm算子计算结束后output1不再被任何算子使用则该Tensor的Device内存可以被回收并且如果output1的内存尺寸大于等于output3的内存尺寸则从output1回收的地址可以用于output3的内存分配从而达到复用output1地址的目的。

内存生命周期图 :width:800px 🏷️combine_memory_reuse_and_no_reuse

为了更好地描述内存复用问题,我们通过内存生命周期图来辅助理解。如图 :numref:combine_memory_reuse_and_no_reuse所示图中横坐标表示Tensor的生命周期图中纵坐标表示内存大小。在生命周期内某一个Tensor将一直占用某块Device内存直至生命周期结束才会释放相应内存块。通过Tensor生命周期和内存大小可以构造出矩形块而内存分配要求解的目标是在内存生命周期图中容纳更多的矩形块问题的约束是矩形块之间无碰撞。图 :numref:combine_memory_reuse_and_no_reuse左边是在未使用任何内存复用策略的情况下的内存生命周期图此时内存同时只能容纳T0、T1、T2、T3四个Tensor。

内存复用策略的求解是一个NP完全的问题。许多深度学习框架通常采用贪心的策略去分配内存例如采用BestFit算法每次直接从内存池中选取可以满足条件的最小内存块然而这种贪心的策略往往会陷入局部最优解而无法求得全局最优解。为了更好地逼近内存分配策略全局最优解MindSpore框架提出了一种新的内存分配算法 SOMAS(Safe Optimized Memory Allocation Solver)。SOMAS将计算图并行流与数据依赖进行聚合分析得到算子间祖先关系构建张量全局生命周期互斥约束使用多种启发式算法求解最优的内存静态规划实现逼近理论极限的内存复用从而提升支持的内存大小。

由图 :numref:combine_memory_reuse_and_no_reuse右边可知经过SOMAS求解之后同样的内存大小可支持的Tensor数量达到了7个。

常见的内存分配优化手段

内存融合

上述内存分配的方式都是以单个Tensor的维度去分配的每个Tensor分配到的Device地址往往是离散的。但是对于某些特殊的算子如AllReduce通信算子我们需要为它们分配连续的内存。通信算子的执行包含通信等待、数据搬移、计算等步骤而在大规模分布式集群的场景下通信的耗时往往是性能瓶颈。针对这种场景我们可以将多个通信算子融合成一个为通信算子的输入分配连续的内存从而减少通信的次数。 又比如分布式训练中的神经网络权重初始化,通常将一个训练进程中的权重初始化,然后将该权重广播到其他进程中。当一个网络有较多权重的时候,需要多次进行广播。通常可以为所有权重分配连续的内存地址,然后广播一次,节省大量通信的耗时。

通信算子内存融合 :width:800px 🏷️memory_fusion

In-Place算子

在前面的内存分配流程中,我们会为每个算子的输入和输出都分配不同的内存。然而对很多算子而言,为其分配不同的输入和输出地址,会浪费内存并且影响计算性能。例如优化器算子,其计算的目的就是更新神经网络的权重;例如Python语法中的'+='和'*='操作符,将计算结果更新到符号左边的变量中;例如'a[0]=b'语法,将'a[0]'的值更新为'b'。诸如此类计算有一个特点都是为了更新输入的值。下面以Tensor的'a[0]=b'操作为例介绍In-Place的优点。 图 :numref:inplace-op左边是非In-Place操作的实现step1将Tensor a拷贝到Tensor a'step2将Tensor b赋值给Tensor a'step3将Tensor a'拷贝到Tensor a。图 :numref:inplace-op右边是算子In-Place操作的实现仅用一个步骤将Tensor b拷贝到Tensor a对于的位置上。对比两种实现可以发现In-Place操作节省了两次拷贝的耗时并且省去了Tensor a'内存的申请。

In-Place算子内存分配 :width:800px 🏷️inplace-op

这节我们简单介绍了Device内存的概念内存分配的流程和一些优化内存分配的方法。内存分配是编译器后端的最重要部分之一内存的合理分配不仅关系到相同芯片上能否支持更大的网络模型也关系到模型在硬件上的执行效率。