NVIDIA 携手微软打造大规模云端 AI 计算机
发布时间:2022-11-17 14:15:10 热度:898
11/17/2022,光纤在线讯,美国加利福尼亚州圣克拉拉 – NVIDIA 于今日宣布与微软展开一项为期多年的合作,双方将共同打造全球最强大的 AI 超级计算机。微软 Azure 的先进超级计算基础设施,结合 NVIDIA GPU、网络和全栈式 AI 软件为此超级计算机赋能,以帮助企业训练、部署和扩展包括大型、先进模型在内的AI。
Azure 的云端 AI 超级计算机包括强大、可扩展 ND 与 NC 系列虚拟机,其专为 AI 分布式训练和推理而优化,是首个采用 NVIDIA 先进 AI 堆栈的公有云,并添加了数以万计的 NVIDIA A100 和 H100 GPU、NVIDIA Quantum-2 400Gb/s InfiniBand 网络和 NVIDIA AI Enterprise 软件套件在平台上。
在此次合作中,NVIDIA 将使用 Azure 的可扩展虚拟机实例来研究并进一步加快生成式 AI 的发展。生成式 AI 是正在迅速兴起的 AI 领域,其中像 Megatron Turing NLG 530B这样的基础模型是无监督、自学习算法的基准,这些算法被用来创造新的文本、代码、数字图像、视频或音频。
两家公司还将合作优化微软的 DeepSpeed 深度学习优化软件。NVIDIA 的全栈式 AI 工作流和软件开发工具包皆专为 Azure 进行了优化,并将提供给 Azure 企业客户。
NVIDIA 企业计算副总裁 Manuvir Das 表示: “AI 技术正在加速发展,行业的采用速度也在同时加快。基础模型上的突破引发了研究浪潮、培育了新的初创企业并启动了新的企业应用程序。我们将与微软一同为研究者和企业提供最先进的 AI 基础设施和软件,使他们能够充分利用 AI 的变革性力量。”
微软云与 AI 事业部执行副总裁 Scott Guthrie 表示:“AI 正在掀起整个企业和工业计算的下一轮自动化浪潮,帮助企业机构在变幻莫测的经济环境中得以事半功倍。我们与 NVIDIA 合作,打造全球可扩展性最强的超级计算机平台,为微软 Azure 上的每家企业提供最先进的 AI 功能。”
通过 Azure 上的 NVIDIA 计算 与 Quantum-2 InfiniBand 实现可扩展峰值性能[b/]
微软Azure的AI优化虚拟机实例采用了 NVIDIA 最先进的数据中心 GPU,并且是首个搭载 NVIDIA Quantum-2 400Gb/s InfiniBand 网络的公有云实例。客户可以在单个集群中部署数千 GPU 来训练最具规模的大型语言模型,大规模地构建最复杂的推荐系统以及实现生成式 AI。
目前的 Azure 实例采用了 NVIDIA Quantum 200Gb/s InfiniBand 网络和 NVIDIA A100 GPU。未来的实例将集成 NVIDIA Quantum-2 400Gb/s InfiniBand 网络和 NVIDIA H100 GPU。结合 Azure 先进的计算云基础设施、网络和存储,这些通过 AI 优化的产品将为任何规模的 AI 训练和深度学习推理工作负载提供可扩展的峰值性能。
[b]加速 AI 的开发和部署
另外,该平台将支持广泛的 AI 应用和服务,包括微软 DeepSpeed 和 NVIDIA AI Enterprise 软件套件。
微软 DeepSpeed 将使用 NVIDIA H100 Transformer 引擎来加速基于 Transformer的模型,这些模型可用于大型语言模型、生成式 AI 和编写计算机代码等应用。该技术将 8 位浮点精度能力应用于 DeepSpeed,大大加快了 Transformer 的 AI 计算速度,使其吞吐量达到 16 位运算的两倍。
被全球企业广泛采用的 NVIDIA AI 平台软件 NVIDIA AI Enterprise 已通过认证并支持搭载 NVIDIA A100 GPU 的微软Azure 实例。未来的软件版本将增加对搭载 NVIDIA H100 GPU 的 Azure 实例的支持。
NVIDIA AI Enterprise 包括用于语音 AI 的 NVIDIA Riva 以及 NVIDIA Morpheus 网络安全应用框架,可简化从数据处理和 AI 模型训练到仿真和大规模部署等AI工作流中的每一步。
关于 NVIDIA
自1993年成立以来,NVIDIA(NASDAQ: NVDA)一直是加速计算领域的先驱。NVIDIA 1999年发明的GPU驱动了PC游戏市场的增长,并重新定义了现代计算机图形,开启了现代AI时代,推动了元宇宙的创建。NVIDIA现在是一家全栈计算公司,其数据中心规模的产品正在重塑整个行业。更多信息,请访问 https://nvidianews.nvidia.com/。
Azure 的云端 AI 超级计算机包括强大、可扩展 ND 与 NC 系列虚拟机,其专为 AI 分布式训练和推理而优化,是首个采用 NVIDIA 先进 AI 堆栈的公有云,并添加了数以万计的 NVIDIA A100 和 H100 GPU、NVIDIA Quantum-2 400Gb/s InfiniBand 网络和 NVIDIA AI Enterprise 软件套件在平台上。
在此次合作中,NVIDIA 将使用 Azure 的可扩展虚拟机实例来研究并进一步加快生成式 AI 的发展。生成式 AI 是正在迅速兴起的 AI 领域,其中像 Megatron Turing NLG 530B这样的基础模型是无监督、自学习算法的基准,这些算法被用来创造新的文本、代码、数字图像、视频或音频。
两家公司还将合作优化微软的 DeepSpeed 深度学习优化软件。NVIDIA 的全栈式 AI 工作流和软件开发工具包皆专为 Azure 进行了优化,并将提供给 Azure 企业客户。
NVIDIA 企业计算副总裁 Manuvir Das 表示: “AI 技术正在加速发展,行业的采用速度也在同时加快。基础模型上的突破引发了研究浪潮、培育了新的初创企业并启动了新的企业应用程序。我们将与微软一同为研究者和企业提供最先进的 AI 基础设施和软件,使他们能够充分利用 AI 的变革性力量。”
微软云与 AI 事业部执行副总裁 Scott Guthrie 表示:“AI 正在掀起整个企业和工业计算的下一轮自动化浪潮,帮助企业机构在变幻莫测的经济环境中得以事半功倍。我们与 NVIDIA 合作,打造全球可扩展性最强的超级计算机平台,为微软 Azure 上的每家企业提供最先进的 AI 功能。”
通过 Azure 上的 NVIDIA 计算 与 Quantum-2 InfiniBand 实现可扩展峰值性能[b/]
微软Azure的AI优化虚拟机实例采用了 NVIDIA 最先进的数据中心 GPU,并且是首个搭载 NVIDIA Quantum-2 400Gb/s InfiniBand 网络的公有云实例。客户可以在单个集群中部署数千 GPU 来训练最具规模的大型语言模型,大规模地构建最复杂的推荐系统以及实现生成式 AI。
目前的 Azure 实例采用了 NVIDIA Quantum 200Gb/s InfiniBand 网络和 NVIDIA A100 GPU。未来的实例将集成 NVIDIA Quantum-2 400Gb/s InfiniBand 网络和 NVIDIA H100 GPU。结合 Azure 先进的计算云基础设施、网络和存储,这些通过 AI 优化的产品将为任何规模的 AI 训练和深度学习推理工作负载提供可扩展的峰值性能。
[b]加速 AI 的开发和部署
另外,该平台将支持广泛的 AI 应用和服务,包括微软 DeepSpeed 和 NVIDIA AI Enterprise 软件套件。
微软 DeepSpeed 将使用 NVIDIA H100 Transformer 引擎来加速基于 Transformer的模型,这些模型可用于大型语言模型、生成式 AI 和编写计算机代码等应用。该技术将 8 位浮点精度能力应用于 DeepSpeed,大大加快了 Transformer 的 AI 计算速度,使其吞吐量达到 16 位运算的两倍。
被全球企业广泛采用的 NVIDIA AI 平台软件 NVIDIA AI Enterprise 已通过认证并支持搭载 NVIDIA A100 GPU 的微软Azure 实例。未来的软件版本将增加对搭载 NVIDIA H100 GPU 的 Azure 实例的支持。
NVIDIA AI Enterprise 包括用于语音 AI 的 NVIDIA Riva 以及 NVIDIA Morpheus 网络安全应用框架,可简化从数据处理和 AI 模型训练到仿真和大规模部署等AI工作流中的每一步。
关于 NVIDIA
自1993年成立以来,NVIDIA(NASDAQ: NVDA)一直是加速计算领域的先驱。NVIDIA 1999年发明的GPU驱动了PC游戏市场的增长,并重新定义了现代计算机图形,开启了现代AI时代,推动了元宇宙的创建。NVIDIA现在是一家全栈计算公司,其数据中心规模的产品正在重塑整个行业。更多信息,请访问 https://nvidianews.nvidia.com/。