美国加州旧金山时间8月26日上午,NVIDIA 和Vmware 在VMworld U.S. 2019期间共同宣布,将为VMware Cloud on AWS 推出基于NVIDIA GPU的加速服务,为AI、机器学习和数据分析工作流程等现代化企业应用提供支持。
通过这些服务,客户可以将基于VMware vSphere 的应用和容器,原封不动地无缝迁移至云端,实现应用和容器现代化,从而充分发挥高性能计算(HPC)、机器学习、数据分析和视频处理应用的优势。
VMware首席执行官Pat Gelsinger 表示:“我们的客户正通过VMware Cloud on AWS所提供的独特价值加速关键业务应用的迁移和现代化。我们通过与NVIDIA和AWS等行业领导者的合作推动创新,为混合云中最密集的数据驱动型工作负载和现代应用提供一流的GPU加速服务。”
如今,越来越多的企业正在应用AI实现流程和产品的差异化及提升。这些新的AI策略需要借助性能强大的计算机。
但是,尽管许多公司都在数据中心中部署了GPU,其AI训练和推理等GPU加速工作负载通常却仍在裸机上运行。这些GPU 服务器通常是独立的,需要进行单独管理,这使得其利用率和灵活性受到了限制。
NVIDIA创始人兼首席执行官黄仁勋表示:“无论是运营智能还是人工智能,企业都需要GPU加速计算来作出快速、准确的预测,这些预测将直接影响企业的盈利。我们与VMware一同设计了最先进的GPU基础架构,帮助企业加快各领域的创新速度,从虚拟化、混合云到VMware的全新Bitfusion数据中心分解。”
据NVIDIA虚拟化产品高级总监Anne Hecht 介绍,通过此次合作, VMware Cloud on AWS 的客户将获得具有高度可扩展性和安全性的全新云服务,它包含了通过NVIDIA T4 GPU 和全新NVIDIA 虚拟计算服务器(vComputeServer)软件加速的Amazon EC2 裸机实例。
基于NVIDIA GPU的VMware Cloud为AI、机器学习和数据分析带来的效益
该产品上市后,企业不仅可以使用企业级混合云平台加速应用程序现代化,还能通过从数据中心到AWS云端的VMware一致基础架构,为AI、机器学习和数据分析等计算最密集的工作负载提供支持。其带来的效益包括:
无缝迁移:无需预定停机时间,用户即可使用VMware HCX一键迁移NVIDIA vComputeServer软件和GPU赋力的工作负载。这给在云或本地执行训练和推理的客户带来更多的选择和更大的灵活性。
灵活的AWS基础架构:由于能够自动扩展由NVIDIA T4加速的AWS集群上的VMware Cloud,管理员能够根据数据科学家的需求扩大或缩小可用的训练环境。
更快的现代应用计算速度:NVIDIA T4 GPU搭载能够加快深度学习推理工作流程的Tensor Core。通过与用于GPU虚拟化的vComputeServer软件相结合,企业能够在虚拟化环境中灵活运行AI、机器学习和数据分析等GPU加速工作负载,从而提高安全性、实用性和易管理性。
一致的混合云基础架构和运营:借助VMware Cloud on AWS,企业机构可以建立统一的跨混合云基础架构和运营,将VMware 行业标准级vSphere、vSAN 和NSX 作为关键业务应用更新的基础。IT 运维人员可以在本地同时管理vCenter 内的GPU 加速工作负载和vSphere 上运行的GPU 加速工作负载。
无缝端对端数据科学和分析管线:借助NVIDIA RAPIDS,NVIDIA T4 数据中心GPU 为主流服务器提供超强支持,并可加速数据科学技术。NVIDIA RAPIDS 是一个包含深度学习、机器学习和数据分析的NVIDIA GPU数据科学加速库集。