NVIDIA 与软银集团助力日本迈向全球 AI 强国阵列
发布时间:2024-11-14 10:00:17 热度:314
11/14/2024,光纤在线讯,NVIDIA 今日宣布与软银集团开展一系列合作,旨在加速日本主权 AI 计划,并进一步提升日本在全球的技术领先优势,同时为全球电信运营商开辟数十亿美元的 AI 收入来源。
NVIDIA 创始人兼首席执行官黄仁勋在 NVIDIA AI Summit Japan 的特别演讲中宣布,软银集团正在使用 NVIDIA Blackwell 平台打造日本最强大的 AI 超级计算机,并计划将 NVIDIA Grace Blackwell 平台应用于其下一代超级计算机。
此外,通过使用 NVIDIA AI Aerial 加速计算平台,软银集团成功试运行了全球首个 AI 与 5G 相结合的电信网络。这项计算领域的突破为电信运营商开辟了可能达到数十亿美元价值的 AI 收入来源。
NVIDIA 和软银集团还宣布,软银集团正计划使用 NVIDIA AI Enterprise 软件创建一个 AI Marketplace,以满足对本地安全 AI 计算的需求。凭借这项支持 AI 训练和边缘 AI 推理的新服务,软银集团有望成为日本的 AI 引擎,为各个行业、个人和企业带来创造、分配和使用 AI 服务的新商机。
黄仁勋表示:“日本在推动具有全球影响力的技术创新方面有着悠久的历史。凭借软银集团对 NVIDIA 全栈 AI、Omniverse 和 5G AI-RAN 平台的巨大投资,日本正在一跃成为 AI 产业变革的全球领军者,推动电信、交通、机器人和医疗健康行业进入新增长时代。这将在人工智能时代极大地造福人类。”
软银集团总裁兼首席执行官 Junichi Miyakawa 表示:“世界各国和地区都在加速使用 AI 促进社会和经济增长,社会正在经历重大转型。通过与 NVIDIA 的长期合作,软银集团正站在这一转型的最前沿。凭借我们强大的 AI 基础设施以及专为 AI 重塑 5G 网络的全新分布式 AI-RAN 解决方案‘AITRAS’,我们将加速全国乃至全球的创新步伐。”
软银集团率先接收 Blackwell ,并计划使用 Grace Blackwell
软银集团计划接收全球首批 NVIDIA 系统,该系统将作为其全新 NVIDIA SuperPOD? 超级计算机的构建模块。
软银集团计划将其由 Blackwell 驱动的 SuperPOD 用于自身以及日本全国大学、研究机构和企业的生成式 AI 开发与 AI 相关业务。
建成后,软银集团的 SuperPOD 预计将成为日本迄今为止性能最佳的系统。它配备 NVIDIA AI Enterprise 软件和 NVIDIA Quantum-2 InfiniBand 网络,也十分适合用于开发大语言模型。
除了 SuperPOD 之外,软银集团还计划再建造一台 NVIDIA 加速的超级计算机,以运行计算极为密集的工作负载。该超级计算机初步计划基于 NVIDIA Grace Blackwell 平台设计,采用 NVIDIA NVL72 多节点液冷机架式系统,将 NVIDIA Blackwell GPU 与基于 Arm 的节能型 NVIDIA Grace? CPU 相结合。
AI-RAN 抵达新的里程碑
软银集团通过与 NVIDIA 密切合作,在技术上取得了巨大成就,开发出一种可同时运行 AI 和 5G 工作负载的新型电信网络,业界称之为人工智能无线接入网络(AI-RAN)。
这种新型基础设施得到了电信行业生态的广泛支持,它使运营商能够将基站从成本中心转变为 AI 创收资产。
通过在神奈川县进行的室外试验,软银集团展示了其 NVIDIA 加速 AI-RAN 解决方案已达到电信级 5G 性能,并且能够利用网络的过剩容量同时运行 AI 推理工作负载。
传统的电信网络是为处理峰值负载而设计,平均仅使用了容量的三分之一。借助 AI-RAN 提供的通用计算能力,预计电信公司能够将剩余的三分之二容量用于 AI 推理服务,实现容量变现。
根据 NVIDIA 和软银集团的预测,电信运营商在新 AI-RAN 基础设施上每投资 1 美元,就能获得大约 5 美元的 AI 推理收入(1)。考虑到运营成本和资本支出成本,软银集团估计,每增加 1 台 AI-RAN 服务器,其基础设施的回报率最高可达 219%。(2)
在 AI-RAN 上运行现实世界推理
在试验中,软银集团使用 NVIDIA AI Enterprise 构建了现实世界 AI 推理应用,包括自动驾驶汽车远程支持、机器人控制和边缘多模态检索自动生成。所有推理工作负载都能在软银集团的 AI-RAN 网络上以最佳状态运行。
软银集团的全软件定义 5G 无线电堆栈专门针对 NVIDIA AI 计算平台进行了优化,并且包含软银集团基于 NVIDIA Aerial? CUDA? 加速 RAN 库增强的 L1 软件。软银集团计划将 NVIDIA Aerial RAN Computer-1 系统整合到其未来的解决方案中,并估计该系统的功耗比传统 5G 网络基础设施减少 40%。(3)
NVIDIA 和软银集团的合作伙伴为软银集团的 AI-RAN 解决方案试验做出了贡献,其中包括富士通和红帽。
供需匹配
由于 AI-RAN 解决方案需要在不影响运营商级实时性能的前提下,根据供需情况动态增减算力,因此,软银集团计划通过使用 NVIDIA AI Enterprise 无服务器应用编程接口及其内部开发的编排器,建立一个连接 AI 技术供需双方的生态系统。这使软银集团能够在有可用的计算资源时,将外部 AI 推理作业调度到 AI-RAN 服务器,以此提供本地化、低延迟且安全的推理服务。
NVIDIA 电信业务高级副总裁 Ronnie Vasishta 表示:“如果能够从单一用途转向多用途的 AI-RAN 网络,那么每投资 1 美元,就能获得 5 倍的收益。软银集团的现场实地试验验证了技术的可行性、性能和经济性,标志着 AI-RAN 朝商业化落地迈出了一大步。”
软银集团副总裁兼先进技术研究所所长 Ryuji Wakikawa 表示:“软银集团的‘AITRAS’是与 NVIDIA 合作五年来开发的首个 AI-RAN 解决方案。它使用软银集团开发的编排器,整合协调 AI 和 RAN 工作负载,通过在单个 NVIDIA 加速 GPU 服务器上运行密集单元来提高通信效率。相信 AITRAS 这项 AI 驱动的创新成果将为电信业的新业务模式打下基础,成为移动运营商转型的关键。”
了解有关 NVIDIA AI-RAN 解决方案的更多信息:
https://www.nvidia.cn/industries/telecommunications/ai-ran/
(1) 结果不能保证在执行时的实际收入。
(2) 基于软银集团的估计。
(3) 基于 NVIDIA 和软银集团的估计。结果不能保证在执行时实际的功耗降低。
点击“阅读原文”,或扫描下方海报二维码,观看 NVIDIA CEO 黄仁勋特别演讲以及和软银集团 CEO 孙正义的炉边谈话回放。
来源:NVIDIA
NVIDIA 创始人兼首席执行官黄仁勋在 NVIDIA AI Summit Japan 的特别演讲中宣布,软银集团正在使用 NVIDIA Blackwell 平台打造日本最强大的 AI 超级计算机,并计划将 NVIDIA Grace Blackwell 平台应用于其下一代超级计算机。
此外,通过使用 NVIDIA AI Aerial 加速计算平台,软银集团成功试运行了全球首个 AI 与 5G 相结合的电信网络。这项计算领域的突破为电信运营商开辟了可能达到数十亿美元价值的 AI 收入来源。
NVIDIA 和软银集团还宣布,软银集团正计划使用 NVIDIA AI Enterprise 软件创建一个 AI Marketplace,以满足对本地安全 AI 计算的需求。凭借这项支持 AI 训练和边缘 AI 推理的新服务,软银集团有望成为日本的 AI 引擎,为各个行业、个人和企业带来创造、分配和使用 AI 服务的新商机。
黄仁勋表示:“日本在推动具有全球影响力的技术创新方面有着悠久的历史。凭借软银集团对 NVIDIA 全栈 AI、Omniverse 和 5G AI-RAN 平台的巨大投资,日本正在一跃成为 AI 产业变革的全球领军者,推动电信、交通、机器人和医疗健康行业进入新增长时代。这将在人工智能时代极大地造福人类。”
软银集团总裁兼首席执行官 Junichi Miyakawa 表示:“世界各国和地区都在加速使用 AI 促进社会和经济增长,社会正在经历重大转型。通过与 NVIDIA 的长期合作,软银集团正站在这一转型的最前沿。凭借我们强大的 AI 基础设施以及专为 AI 重塑 5G 网络的全新分布式 AI-RAN 解决方案‘AITRAS’,我们将加速全国乃至全球的创新步伐。”
软银集团率先接收 Blackwell ,并计划使用 Grace Blackwell
软银集团计划接收全球首批 NVIDIA 系统,该系统将作为其全新 NVIDIA SuperPOD? 超级计算机的构建模块。
软银集团计划将其由 Blackwell 驱动的 SuperPOD 用于自身以及日本全国大学、研究机构和企业的生成式 AI 开发与 AI 相关业务。
建成后,软银集团的 SuperPOD 预计将成为日本迄今为止性能最佳的系统。它配备 NVIDIA AI Enterprise 软件和 NVIDIA Quantum-2 InfiniBand 网络,也十分适合用于开发大语言模型。
除了 SuperPOD 之外,软银集团还计划再建造一台 NVIDIA 加速的超级计算机,以运行计算极为密集的工作负载。该超级计算机初步计划基于 NVIDIA Grace Blackwell 平台设计,采用 NVIDIA NVL72 多节点液冷机架式系统,将 NVIDIA Blackwell GPU 与基于 Arm 的节能型 NVIDIA Grace? CPU 相结合。
AI-RAN 抵达新的里程碑
软银集团通过与 NVIDIA 密切合作,在技术上取得了巨大成就,开发出一种可同时运行 AI 和 5G 工作负载的新型电信网络,业界称之为人工智能无线接入网络(AI-RAN)。
这种新型基础设施得到了电信行业生态的广泛支持,它使运营商能够将基站从成本中心转变为 AI 创收资产。
通过在神奈川县进行的室外试验,软银集团展示了其 NVIDIA 加速 AI-RAN 解决方案已达到电信级 5G 性能,并且能够利用网络的过剩容量同时运行 AI 推理工作负载。
传统的电信网络是为处理峰值负载而设计,平均仅使用了容量的三分之一。借助 AI-RAN 提供的通用计算能力,预计电信公司能够将剩余的三分之二容量用于 AI 推理服务,实现容量变现。
根据 NVIDIA 和软银集团的预测,电信运营商在新 AI-RAN 基础设施上每投资 1 美元,就能获得大约 5 美元的 AI 推理收入(1)。考虑到运营成本和资本支出成本,软银集团估计,每增加 1 台 AI-RAN 服务器,其基础设施的回报率最高可达 219%。(2)
在 AI-RAN 上运行现实世界推理
在试验中,软银集团使用 NVIDIA AI Enterprise 构建了现实世界 AI 推理应用,包括自动驾驶汽车远程支持、机器人控制和边缘多模态检索自动生成。所有推理工作负载都能在软银集团的 AI-RAN 网络上以最佳状态运行。
软银集团的全软件定义 5G 无线电堆栈专门针对 NVIDIA AI 计算平台进行了优化,并且包含软银集团基于 NVIDIA Aerial? CUDA? 加速 RAN 库增强的 L1 软件。软银集团计划将 NVIDIA Aerial RAN Computer-1 系统整合到其未来的解决方案中,并估计该系统的功耗比传统 5G 网络基础设施减少 40%。(3)
NVIDIA 和软银集团的合作伙伴为软银集团的 AI-RAN 解决方案试验做出了贡献,其中包括富士通和红帽。
供需匹配
由于 AI-RAN 解决方案需要在不影响运营商级实时性能的前提下,根据供需情况动态增减算力,因此,软银集团计划通过使用 NVIDIA AI Enterprise 无服务器应用编程接口及其内部开发的编排器,建立一个连接 AI 技术供需双方的生态系统。这使软银集团能够在有可用的计算资源时,将外部 AI 推理作业调度到 AI-RAN 服务器,以此提供本地化、低延迟且安全的推理服务。
NVIDIA 电信业务高级副总裁 Ronnie Vasishta 表示:“如果能够从单一用途转向多用途的 AI-RAN 网络,那么每投资 1 美元,就能获得 5 倍的收益。软银集团的现场实地试验验证了技术的可行性、性能和经济性,标志着 AI-RAN 朝商业化落地迈出了一大步。”
软银集团副总裁兼先进技术研究所所长 Ryuji Wakikawa 表示:“软银集团的‘AITRAS’是与 NVIDIA 合作五年来开发的首个 AI-RAN 解决方案。它使用软银集团开发的编排器,整合协调 AI 和 RAN 工作负载,通过在单个 NVIDIA 加速 GPU 服务器上运行密集单元来提高通信效率。相信 AITRAS 这项 AI 驱动的创新成果将为电信业的新业务模式打下基础,成为移动运营商转型的关键。”
了解有关 NVIDIA AI-RAN 解决方案的更多信息:
https://www.nvidia.cn/industries/telecommunications/ai-ran/
(1) 结果不能保证在执行时的实际收入。
(2) 基于软银集团的估计。
(3) 基于 NVIDIA 和软银集团的估计。结果不能保证在执行时实际的功耗降低。
点击“阅读原文”,或扫描下方海报二维码,观看 NVIDIA CEO 黄仁勋特别演讲以及和软银集团 CEO 孙正义的炉边谈话回放。
来源:NVIDIA