与NVIDIA MIG的集成可通过一键式交付按需的ML / DL工作负载的单个GPU的多个实例,从而提高性能
cnvrg.io用于机器学习的AI OS宣布将NVIDIA多实例GPU(MIG)技术与其数据科学平台进行了原生集成。cnvrg.io是第一个集成MIG的ML平台,这是一项突破性的新功能,可以将每个NVIDIA A100 GPU划分为多达七个加速器,以实现最佳利用率,从而有效地扩展对每个用户和应用程序的访问权限。此次集成是在发布NVIDIA A100 Tensor Core GPU和NVIDIA DGX A100系统以及cnvrg.io的NVIDIA DGX-Ready Software程序作为AI工作流解决方案的认证之后进行的。
NVIDIA GPU是机器学习和深度学习工作负载的强大动力。全新的NVIDIA A100 Tensor Core GPU在AI,数据分析和HPC工作负载的各个规模上均提供了前所未有的加速,以应对全球最棘手的计算挑战。作为NVIDIA数据中心平台的引擎,A100可以有效地扩展至数千个GPU,并且借助MIG,可以将其划分为七个独立的GPU实例,以加速各种规模的AI工作负载。
由于存在如此巨大的可变性,因此资源管理至关重要。基础架构团队需要MLOps,以及分配,安排,共享和监视MIG资源利用率的方法。这就是cnvrg.io数据科学平台快速发展的地方,并提供了具有自助服务资源管理,元计划和MLOps功能的MIG集成。
-
机器学习
+关注
关注
66文章
8411浏览量
132597 -
深度学习
+关注
关注
73文章
5502浏览量
121124 -
数据科学
+关注
关注
0文章
165浏览量
10053
发布评论请先 登录
相关推荐
评论