Files
Yeqi Huang d953030747 feat: add v1/v2 versioning with language selector (#494)
* feat: add v1/v2 versioning and language selector for mdbook

- Copy current content to v1/ directory (1st Edition)
- Create v2/ directory with new TOC structure (2nd Edition) and placeholder chapters
- Add version selector (V1/V2) and language toggle (EN/ZH) in top-right nav bar
- Add build scripts: build_mdbook_v1.sh, build_mdbook_v2.sh
- Update assemble_docs_publish_tree.py to support v1/v2 deployment layout
- Fix mdbook preprocessor to use 'sections' key (v0.4.43 compatibility)
- Update .gitignore for new build artifact directories
- Deployment layout: / = v2 EN, /cn/ = v2 ZH, /v1/ = v1 EN, /v1/cn/ = v1 ZH

Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>

* build: update CI to build and verify all four books (v1/v2 x EN/ZH)

- Clarify step names: "Build v2 (EN + ZH)" and "Build v1 (EN + ZH)"
- Add verification step to check all four index.html outputs exist
- Deploy workflow assembles: / = v2 EN, /cn/ = v2 ZH, /v1/ = v1 EN, /v1/cn/ = v1 ZH

Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>

* fix: gracefully skip missing TOC entries instead of crashing

resolve_toc_target() now returns None for missing files instead of
raising FileNotFoundError. This fixes v1 EN build where chapter index
files reference TOC entry names that don't match actual filenames.

Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>

---------

Co-authored-by: Claude Opus 4.6 <noreply@anthropic.com>
2026-03-12 13:37:42 +00:00

5.8 KiB
Raw Permalink Blame History

参数服务器

下面介绍另一种常见的分布式训练系统参数服务器。不同的机器学习框架以不同方式提供参数服务器的实现。TensorFlow和MindSpore内置了参数服务器的实现。PyTorch需要用户使用RPC接口自行实现。同时我们也有参数服务器的第三方实现如PS-Lite。

系统架构

不同于基于集合通信实现的机器学习系统,参数服务器系统中的服务器会被分配两种角色:训练服务器和参数服务器。其中参数服务器需要提供充足内存资源和通信资源,训练服务器需要提供大量的计算资源(如硬件加速器)。 :numref:ch10-parameter-servers 描述了带有参数服务器的机器学习集群。这个集群中含有两个训练服务器和两个参数服务器。 假设我们有一个模型,可以切分为两个参数分区。每个分区被分配给一个参数服务器负责参数同步。 在训练的过程中每个训练服务器都会有完整的模型根据本地的训练数据集切片Dataset Shard训练出梯度。这个梯度会被推送Push到各自参数服务器。参数服务器等到两个训练服务器都完成梯度推送开始计算平均梯度更新参数。它们然后通知训练服务器来拉取Pull最新的参数开始下一轮训练迭代。

参数服务器架构 :width:800px 🏷️ch10-parameter-servers

异步训练

参数服务器的一个核心作用是可以处理分布式训练服务器中出现的落后者Straggler。在之前的讨论中在每一轮训练结束后训练服务器都需要计算平均梯度对每一个模型副本进行更新从而保证下一轮训练开始前全部模型副本参数的一致性这种对于参数一致性的确保一般被称为同步训练Synchronous Training。同步训练一般有助于训练系统达到更好的模型精度但是当系统规模变大往往会观察到落后者服务器的出现。落后者出现的原因很多。常见的原因包括落后者设备可能和其他设备不在同一个机柜中因此落后者的通信带宽显著小于其他设备。另外落后者设备也可能和其他进程共享本地的服务器计算和通信资源形成资源竞争从而降低了性能。

落后者对于基于AllReduce的同步训练系统的性能有显著影响这是因为AllReduce让全部节点参与到平均梯度的计算和通信中而每个节点负责等量的数据。因此一个落后者的出现都会让整个AllReduce操作延迟完成。为了解决这个问题人们常使用参数服务器同步梯度。一种常见的设计是训练服务器训练出梯度后会把本地梯度全部推送到参数服务器。参数服务器在等到一定训练服务器例如90%的训练服务器)的梯度后,就开始计算平均梯度。这样可以确保平均梯度的计算不会被落后者的出现延误。计算好的平均梯度马上推送给全部训练服务器,开始下一轮训练。

解决落后者的另一种常见做法是利用参数服务器实现异步训练(Asynchronous Training)。在一个异步训练系统中,每个训练服务器在训练开始时,有相同的模型参数副本。在训练中,它们计算出梯度后会马上将梯度推送到参数服务器,参数服务器将推送的梯度立刻用于更新参数,并通知训练服务器立刻来拉取最新的参数。在这个过程中,不同的训练服务器很可能会使用不同版本的模型参数进行梯度计算,这种做法可能会伤害模型的精度,但它同时让不同训练服务器可以按照各自的运算速度推送和拉取参数,而无须等待同伴,因此避免了落后者对于整个集群性能的影响。

数据副本

在参数服务器的实际部署中人们往往需要解决数据热点问题。互联网数据往往符合幂律概率Power-Law Distribution这会导致部分参数在训练过程中被访问的次数会显著高于其他参数。例如热门商品的嵌入项Embedding Item被训练服务器拉取的次数就会远远高于非热门商品。因此存储了热门数据的参数服务器所承受的数据拉取和推送请求会远远高于其他参数服务器因此形成数据热点伤害了系统的可扩展性。

利用数据副本的另一个作用是增加系统的鲁棒性。当一个参数服务器出现故障,其所负责的参数将不可用,从而影响了整体系统的可用性。通过维护多个参数副本,当一个参数服务器故障时,系统可以将参数请求导向其他副本,同时在后台恢复故障的参数服务器,确保系统的可用性不受影响。

解决参数服务器故障和数据热点问题的常用技术是构建模型主从复制Leader-Follower Replication。一份参数在多个机器上拥有副本并指定其中一个副本作为主副本Leader Replica。训练服务器的所有更新操作都向主副本写入并同步至全部从副本Follower Replica。如何取得共识并确定哪一个副本是主副本是分布式系统领域一个经典问题对该问题已经有了相当多的成熟算法例如Paxos和Raft。此外主副本上的更新如何复制到从副本上也是分布式系统领域的经典共识问题。通常系统设计者需要在可用性Availability和一致性Consistency之间做出取舍。如果参数服务器副本间采用强一致性Strong Consistency的复制协议Replication Protocol例如链式复制(Chain Replication)则可能导致训练服务器的推送请求失败即参数服务器不可用。反之如果参数服务器采用弱一致性Weak Consistency的复制协议则可能导致副本间存储的参数不一致。