vcuda如何做gpu池化 gpu资源池化_big data

近日,「DaoCloud 道客」与「趋动科技」联合发布 GPU 资源池化云服务联合解决方案,并完成「DaoCloud Enterprise云原生应用云平台」和「猎户座 OrionX GPU 资源调度器」的产品兼容认证。该联合解决方案通过在企业级 Kubernetes 平台 DaoCloud Enterprise(DCE)上,构建 GPU 资源池,让企业内的 AI 用户可共享数据中心内所有服务器上的 GPU 算力,使得 AI 应用开发人员不必再关心底层资源状况,专注于更有价值的业务层面,让 AI 应用开发变得更加敏捷高效

vcuda如何做gpu池化 gpu资源池化_科技_02

算力是推动 AI 发展的三驾马车之一。以 GPU、FPGA 等为主的 AI 算力市场发展迅速,但是,由于缺乏高效经济的AI算力资源池化解决方案,导致企业只能独占式地使用昂贵的 AI 算力资源,带来居高不下的 AI 算力使用成本和低下的资源利用率。

随着云原生成为云计算的新内核,在以容器为应用运行载体的 Kubernetes 平台上运行 AI 训练和推理任务,成为 AI 应用在企业落地的热点和首选。

GPU 资源池化云服务联合解决方案正是基于云原生架构全面整合虚拟化、网络、存储、安全等能力,实现了 GPU 资源池化、动态伸缩和灵活调度,在 DCE 上进行 GPU 资源的细粒度管理和监控。 

同时借助云原生天然的分布式、弹性扩展和轻量虚拟化能力,该方案能够简化算力资源的管理,提高算力资源的利用率,屏蔽硬件基础设施管理的复杂性,有效缓解计算压力,大幅提升 AI 应用的业务效率并避免供应商锁定,广泛服务于深度学习、模型训练、科学计算、图形图像处理等场景。

vcuda如何做gpu池化 gpu资源池化_人工智能_03

GPU 资源池化云服务联合解决方案击破当下 AI 算力利用率低、成本高、远程调用管理难、AI 应用开发部署复杂等痛点。为基于云原生的 AI 应用开发,提供高效利用 AI 算力的路径,为企业打造一站式解决方案。

AI 与云原生技术的融合,事实上已经突破了各自的壁垒,接下来的方向是如何提高应用的 “深度” 以及再度扩展应用的 “广度”,提升整个产业链的深度融合和各方面大规模的优化。「DaoCloud 道客」与趋动科技将继续携手,基于各自领域的技术优势,为云原生技术架构下的 AI 算力提升,提供更加深入和先进的产品及服务。