首页>动态 >内容

Nvidia和VMware合作要将AI工作负载带上AWS

动态2021-02-20 14:03:36
最佳答案

Nvidia和VMware合作要在AWS上的VMware Cloud提供GPU加速运算服务,以支援现代企业应用程式,包括人工智慧、机器学习和资料分析等应用,企业可以将基于VMware vSphere的应用程式和容器,无缝地搬迁上公有云。

不少企业在自家服务中使用人工智慧以及机器学习技术,而这些技术需要强大的运算能力,才能利用庞大的企业资料训练预测模型。Nvidia和VMware的合作,提供企业另一个在公有云上实作机器学习应用的选择,用户可以在AWS上的VMware Cloud,使用可高度扩展云端服务,该服务由Amazon EC2裸机实例组成,搭配Nvidia T4 GPU和新的Nvidia虚拟运算伺服器vComputeServer软体,为企业提供高效能的加速运算能力。

Nvidia创办人黄仁勋提到,企业能够使用GPU加速运算,以提供更精确的人工智慧预测结果,而Nvidia与VMware合作,要发展能够良好运用GPU加速运算的混合云架构。

透过这项合作,企业将可利用混合云平台VMware Cloud建立一致的基础架构,并使用一致的营运方法。当把VMware vSphere、vSAN和NSX作为关键应用程式的基础,企业就可以在vCenter内管理使用GPU运算的工作负载,也能在本地vSphere上执行GPU加速工作负载。

企业用户只需要使用VMware HCX并透过点击按钮,就能将vComputeServer以及GPU工作负载,从企业内部移动到公有云上,而当这些应用程式被重新部署,就能使用Nvidia的GPU,执行高效能运算、机器学习、资料分析以及影像处理等应用程式。而这也为用户提供更灵活的选择,可在云端或是内部进行训练或是推理。

借助AWS云端平台的优点,VMware Cloud可自动扩展规模,管理员可以根据资料科学家的需求,增加或缩小训练环境。由于Nvidia T4 GPU具有Tensor核心,可以加速深度学习推理工作,而当这些与GPU虚拟化软体vComputeServer结合,企业便可在虚拟化环境中执行GPU加速运算工作负载,不只具有高安全性,也可提高资源利用率,并且还能增加可管理性。

免责声明:本文由用户上传,如有侵权请联系删除!