GTC 2023|Colossal-AI系统的数据并行优化方案

电子说

1.3w人已加入

描述

  Colossal-AI的改变:

gpu

  从Colossal-AI的GitHub star数量中看出,这是衡量其开源社区的指标。与其它非常流行的开源系统(如Spark、 MongoDB等)相比,在相同时间内Colossal-AI使用增长速度是最快的。

  世界上37个国家的用户正在使用Colossal-AI,还有各种其他人工智能生态系统使用Colsssal-AI。

  Colsssal-AI的重要功能——N-Dim并行系统

  这可以将你的复杂模型可用硬件上,以便最大化使用并行同时最小化通信。

gpu

  Colsssal-AI提供了完整的并行方法,包括数据并行、张量并行、流水线并行和序列并行,同时还有团队提出的2维、2.5维和3维张量并行以及序列并行。

  其中优化了数据并行,可以让你以最小的损失在相当大的规换下训练模型。

  大规模优化器如何优化数据并行

gpu

  与单个GPU训练相比数据并行训练将整个数据集分为几个分区。

  每个GPU拥有1个数据集分区,模型在每个GPU上复制,开在其本地数据集分区进行训练,在反向传播期间计算的梯度,被平均并用于更新模型副本,可以确保在不同GPU之间同步模型。

gpu

  然而,简单的增加批次大小,通常会导致泛化性能下降并降低计算精度。为了解决这些问题,研究出一种新的方法,可扩展的大规模优化器LARS和LAMB,适合大批量设置。

  在ViT模型和ImageNet数据集上对可扩展的大规模优化器LARS和LAMB进行理论分析。他们可最大程度使用GPU资源,将ViT-B/32的训练时间从一个GPU的73小时减少到200个GPU的0.68小时,并实现几乎线性增加的加速度,并保证收敛。

gpu

     编辑:黄飞

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分