FleetX
latest
分布式训练概述
整体介绍与内容概览
如何设计分布式训练的搭建方案
公有云配置
Kubernetes 部署
安装Paddle
前置基础配置
优化算法
配置分布式训练
Collective训练
1. 快速开始
2. 性能基准
3. 设计综述
4. 性能优化
4.1. OP融合(计算,通信)
4.2. 通信重叠
4.3. 通信拓扑优化
4.4. 通信频率优化
4.5. 自动混合精度
4.6. NV Dali Reader
4.7. 其他(调节资源的配比、增大bs等)
5. 大模型训练优化
6. 二次开发
7. 整体示例
ParameterServer训练
高阶内容
大规模蒸馏
自监督训练
弹性训练
FleetX扩展工具包
分布式训练FAQ
用户FAQ
FleetX
»
Collective训练
»
4. 性能优化
Edit on GitHub
4. 性能优化
¶
性能优化
¶
4.1. OP融合(计算,通信)
4.2. 通信重叠
4.3. 通信拓扑优化
4.4. 通信频率优化
4.5. 自动混合精度
4.6. NV Dali Reader
4.7. 其他(调节资源的配比、增大bs等)
Read the Docs
v: latest
Versions
latest
stable
Downloads
pdf
html
epub
On Read the Docs
Project Home
Builds