fix issues of chapter_model_deployment (#240)

Co-authored-by: hangangqiang <hangangqiang2@huawei.com>
This commit is contained in:
AssassinG
2022-04-02 18:15:25 +08:00
committed by GitHub
parent 02d18060c4
commit 18da842214
3 changed files with 2 additions and 4 deletions

View File

@@ -90,7 +90,7 @@ $$\zeta_c=\frac{||w_c-E(w_c)||}{||\hat{w_c}-E(\hat{w_c})||}$$
#### 稀疏策略
明确了模型稀疏的对象之后,我们需要确定模型稀疏的具体策略,具体来说我们需要决定何时对模型进行稀疏以及如何对模型进行稀疏。目前最常见模型稀疏的一般流程为:预训练、剪枝、微调。具体而言,我们首先需要训练得到一个收敛的稠密模型,然后在此基础上进行稀疏和微调。选择在预训练之后进行稀疏动作的原因基于这样一个共识,即预训练模型的参数蕴含了学习到的知识,继承这些知识然后进行稀疏得到的模型效果要比从头开始训练好。除了基于预训练模型进行进一步修剪之外,训练和剪枝交替进行也是一种常用的策略。相比于一步修剪的方法,这种逐步的修剪方式,使得训练和剪枝紧密结合,可以更有效地发现冗余的卷积核,被广泛采用于现代神经网络剪枝方法中。
明确了模型稀疏的对象之后,我们需要确定模型稀疏的具体策略,具体来说我们需要决定何时对模型进行稀疏以及如何对模型进行稀疏。目前最常见模型稀疏的一般流程为:预训练、剪枝、微调。具体而言,我们首先需要训练得到一个收敛的稠密模型,然后在此基础上进行稀疏和微调。选择在预训练之后进行稀疏动作的原因基于这样一个共识,即预训练模型的参数蕴含了学习到的知识,继承这些知识然后进行稀疏得到的模型效果要比从头开始训练好。除了基于预训练模型进行进一步修剪之外,训练和剪枝交替进行也是一种常用的策略。相比于一步修剪的方法,这种逐步的修剪方式,使得训练和剪枝紧密结合,可以更有效地发现冗余的卷积核,被广泛采用于现代神经网络剪枝方法中。
以下通过一个具体实例(Deep Compression([@han2015deep])
来说明如何进行网络修剪:如 :numref:`ch08-fig-deepcomp`所示在去掉大部分的权值之后深度卷积神经网络的精度将会低于其原始的精度。对剪枝后稀疏的神经网络进行微调可以进一步提升压缩后网络的精度。剪枝后的模型可以进一步进行量化使用更低比特的数据来表示权值此外结合霍夫曼Huffman编码可以进一步地降低深度神经网络的存储。

View File

@@ -88,6 +88,6 @@ $$\pmb{Y_{bn}}=scale*\pmb{X_{bn}}+offset$$
:width:`500px`
:label:`ch08-fig-crop_reorder`
如 :numref:`ch08-fig-crop_reorder`Crop算子是从输入的feature map中裁取一部分作为输出经过Crop算子后feature map的size就降低了。如果我们将这个裁切的过程前移提前对feature map进行裁切那么后续算子的计算量也会相应地减少从而提高模型部署时的推理性能。Crop算子前移带来的性能提升跟Crop算子的参数有关。但是Crop算子一般只能沿着element wise类算子前移。
如 :numref:`ch08-fig-crop_reorder`Crop算子是从输入的feature map中裁取一部分作为输出经过Crop算子后feature map的size就降低了。如果我们将这个裁切的过程前移提前对feature map进行裁切那么后续算子的计算量也会相应地减少从而提高模型部署时的推理性能。Crop算子前移带来的性能提升跟Crop算子的参数有关。但是Crop算子一般只能沿着element wise类算子前移。
通过前面的实验数据我们可以看到,通过推理前的模型优化,可以为推理的时延、功耗、内存占用带来极大的收益。

View File

@@ -20,8 +20,6 @@
- 处理离群值: 离群值是与数据中的其他值保持一定距离的数据点,适当地排除离群值可以提升模型的准确性。
针对特定的原始数据往往存在特定的数据处理手段。在前述8.2"机器学习数据基本类型及常见数据变换方式"章节中,分别详细介绍了图像、音频、文本等数据的预处理方法。
#### 后处理
通常,模型推理结束后,需要把推理的输出数据传递给用户完成后处理,常见的数据后处理手段有: