#230 修改第一部分 (#280)

* #230

* update bib

Co-authored-by: Dalong <39682259+eedalong@users.noreply.github.com>
This commit is contained in:
Hanchen
2022-04-20 11:22:13 +08:00
committed by GitHub
parent 1f03a12b48
commit 4d7d70d510
4 changed files with 137 additions and 50 deletions

View File

@@ -2,7 +2,7 @@
### 云云场景中的横向联邦
在横向联邦学习系统中,具有相同数据结构的多个参与者通过参数或云服务器协同学习机器学习模型。一个典型的假设是参与者是诚实的,而服务器是诚实但好奇的,因此不允许任何参与者向服务器泄漏信息。这种系统的训练过程通常包括以下四个步骤:
在横向联邦学习系统中,具有相同数据结构的多个参与者通过参数或云服务器协同建立机器学习模型。一个典型的假设是参与者是诚实的,而服务器是诚实但好奇的,因此不允许任何参与者向服务器泄漏信息。这种系统的训练过程通常包括以下四个步骤:
①:参与者在本地计算训练梯度,使用加密、差异隐私或秘密共享技术掩饰所选梯度,并将掩码后的结果发送到服务器;
@@ -12,12 +12,14 @@
④:参与者用解密的梯度更新他们各自的模型。
和传统分布式学习相比,联邦学习存在训练结点不稳定和通信代价大的难点。这些难点导致了联邦学习无法和传统分布式学习一样:在每次单步训练之后,同步不同训练结点上的权重。为了提高计算通信比并降低频繁通信带来的高能耗,谷歌公司提出了联邦平均算法Federated AveragingFedAvg。 :numfef:`ch10-federated-learning-fedavg`展示了FedAvg的整体流程。在每轮联邦训练过程中端侧进行多次单步训练。然后云侧聚合多个端侧权重并取加权平均。
和传统分布式学习相比,联邦学习存在训练结点不稳定和通信代价大的难点。这些难点导致了联邦学习无法和传统分布式学习一样:在每次单步训练之后,同步不同训练结点上的权重。为了提高计算通信比并降低频繁通信带来的高能耗,谷歌公司在2017年 :cite:`fedavg`提出了联邦平均算法(Federated AveragingFedAvg)。 :numfef:`ch10-federated-learning-fedavg`展示了FedAvg的整体流程。在每轮联邦训练过程中端侧进行多次单步训练。然后云侧聚合多个端侧权重并取加权平均。
![联邦平均算法](../img/ch10/ch10-federated-learning-fedavg.png)
:width:`800px`
:label:`ch10-federated-learning-fedavg`
随着研究和应用的深入研究者们意识到了FedAvg不适用于某些场景。比如在数据异质性端上数据不是I.I.D分布、系统异质性端设备时断时连的情况下对模型参数只进行简单的加权平均会在训练过程中引入大量偏差从而影响模型的收敛速度、预测性能。针对此研究人员提出了基于Momentum :cite:`FedAvg_Momentum`、Variation Control :cite:`scaffold`、Bayesian :cite:`FedBE`、Distillation :cite:`PATE`和Proximal Estimation :cite:`FedProx`等原理开发的算法和系统框架。
### 端云场景中的横向联邦
端云联邦的总体流程和云云联邦一样,但端云联邦学习面临的难点还包括以下三个方面:
@@ -52,4 +54,4 @@
2.松耦合组网使用FL-Server集群。每个FL-Server接收和下发权重给部分FL-Client减少单个FL-Server的带宽压力。此外支持FL-Client以松散的方式接入。任意FL-Client的中途退出都不会影响全局任务并且FL-Client在任意时刻访问任意FL-Server都能获得训练所需的全量数据。
3.加密模块MindSpore Federated为了防止模型梯度的泄露部署了多种加密算法本地差分隐私LDP、基于多方安全计算MPC的安全聚合算法和华为自研的基于符号的维度选择差分隐私算法SignDS
3.加密模块MindSpore Federated为了防止模型梯度的泄露部署了多种加密算法本地差分隐私LDP、基于多方安全计算MPC的安全聚合算法和华为自研的基于符号的维度选择差分隐私算法SignDS