康宁光通信:光纤连接如何推动生成式人工智能革命
发布时间:2024-01-29 14:08:24 热度:808
1/29/2024,光纤在线讯,当你想到人工智能时,脑中会浮现什么?
早在半年前,ChatGPT就能够像人类一样提供答案,这些答案既符合语境,又具有技术上的合理性。但人工智能局限性也很明显,它会以要点形式给出回答,但实际上只是一个AI模型。
现在,当你在ChatGPT上输入一个问题时,它的反应已经十分迅速,对此,ChatGPT的创建者们实现了哪些改变?
最有可能的情况是,为满足超过1亿用户的需求,OpenAI扩展了其人工智能集群的推理能力。据报道,在人工智能芯片制造商中处于领先地位的英伟达(NVIDIA)已供应大约20,000个图形处理单元(GPU),用于支持ChatGPT的开发,且有大幅增加图形处理单元使用的计划。有人推测,他们即将推出的人工智能模型可能需要多达1000万个图形处理单元。
GPU集群架构:生成式人工智能的基础
理解20,000个GPU的概念是容易办到的,但通过1000万个GPU的光连接来执行智能任务很具有挑战性。
如何先配置好较小的单元,逐渐将其扩大至包含数千个GPU的集群?我们以基于传统的超算(HPC)网络而编写的英伟达设计指南为例。
根据设计指南的建议,该过程使用多个具有256个GPU pod的较小单元(可扩展单元)来构建大量GPU集群。每个pod由8个服务器机架和2个网络机架(位于一排机柜中间位置)组成。这些pod内部以及相互之间的连接通过InfiniBand(部署在英伟达的Quantum-2交换机上的高速、低延迟交换协议)协议建立。
当前的InfiniBand交换机使用32个800G OSFP收发器,采用400G(NDR)双端口。每个端口使用8芯光纤,因此每台交换机有64x400G端口。且即将到来的新一代交换机,很大可能将采用XDR端口。这意味着每台交换机将有64x800G端口,每个端口也使用8芯光纤(主要是单模光纤)。
如表1所示,该4通道(8芯光纤)模式在InfiniBand路线图中反复出现,且未来将使用更快的速度。
就布线而言,在超算(HPC)领域普遍采用的最佳做法是:采用点对点有源光缆(AOC)。然而,随着(MPO)光纤连接器接口的最新NDR端口的推出,点对点连接的情形已从AOC光缆转变为MPO-MPO无源跳线。在考虑单个具有256个GPU的pod时,利用点对点连接没有什么大问题。但是在追求更大的规模时就遇到了问题,例如16k GPU需要64个具有256个GPU的pod实现互连。这些高性能GPU集群使用的计算结构对于线路路由优化有极高的要求。在线路路由优化设置中,来自每个计算系统的所有主机通道适配器(HCA)均连接至同一个叶交换机(leaf switch)。
据说该设置对于最大限度提高深度学习(DL)训练性能至关重要。一个标准的H100计算节点配备4个双端口OSFP,转换为8个上行链路端口(每个GPU一个独立上行链路)与八个不同的叶交换机连接,由此建立一个8条线路优化结构。
该设计在处理单个具有256个GPU的pod时可以无缝工作。但如果目标是构建一个包含16,384个GPU的集群时该怎么办?在这种场景中,有必要增加两个交换层:来自每个pod的第一个叶交换机与脊交换机组一(SG1)中的每个交换机连接,每个pod内的第二个叶交换机与脊交换机组二(SG2)中的每个交换机连接,以此类推。为取得完全实现的胖树(fat-tree)拓扑结构,必须加入第三层核心交换组(CG)。
让我们回顾一下16,384个GPU集群的光缆连接数量。计算节点和叶交换机之间建立连接需要16,384根光缆,每个pod有256根MPO跳线。在开始网络拓展的过程时,建立叶-脊连接和脊-核心连接的任务变得更具有挑战性。涉及到先捆扎多根MPO跳线,然后将其敷设50米至500米不等的距离。
有没有更高效的运营方式?一个建议是采用结构化布线系统,该系统采用两个接线板设计,利用大芯数MPO干线,可能采用144根光纤。这样就能把18根MPO跳线(18x8=144)合并成一根干线光缆,一次敷设完成。通过在端点使用合适的MPO适配器面板,可将它们拆开为多根8芯光缆,并与恰当的线路连接,避免捆绑多根MPO跳线带来的复杂度。
对于一个非阻塞结构,每个pod需要256条上行链路。我们可选择从每个pod拉出15x144根光纤干线,产生270(15x18)上行链路(只需使用15个大芯数线缆)。另外,该设置提供14(270-256)个备用连接,可作备份或用于存储或管理网络连接。
人工智能在理解问题方面取得了重大进展。就实现这种转变而言,寻求能够支持广泛GPU集群(包括16K GPU或24K GPU)的布线解决方案,是这一难题的重要组成部分,也是光连接行业面临的挑战。
早在半年前,ChatGPT就能够像人类一样提供答案,这些答案既符合语境,又具有技术上的合理性。但人工智能局限性也很明显,它会以要点形式给出回答,但实际上只是一个AI模型。
现在,当你在ChatGPT上输入一个问题时,它的反应已经十分迅速,对此,ChatGPT的创建者们实现了哪些改变?
最有可能的情况是,为满足超过1亿用户的需求,OpenAI扩展了其人工智能集群的推理能力。据报道,在人工智能芯片制造商中处于领先地位的英伟达(NVIDIA)已供应大约20,000个图形处理单元(GPU),用于支持ChatGPT的开发,且有大幅增加图形处理单元使用的计划。有人推测,他们即将推出的人工智能模型可能需要多达1000万个图形处理单元。
GPU集群架构:生成式人工智能的基础
理解20,000个GPU的概念是容易办到的,但通过1000万个GPU的光连接来执行智能任务很具有挑战性。
如何先配置好较小的单元,逐渐将其扩大至包含数千个GPU的集群?我们以基于传统的超算(HPC)网络而编写的英伟达设计指南为例。
根据设计指南的建议,该过程使用多个具有256个GPU pod的较小单元(可扩展单元)来构建大量GPU集群。每个pod由8个服务器机架和2个网络机架(位于一排机柜中间位置)组成。这些pod内部以及相互之间的连接通过InfiniBand(部署在英伟达的Quantum-2交换机上的高速、低延迟交换协议)协议建立。
当前的InfiniBand交换机使用32个800G OSFP收发器,采用400G(NDR)双端口。每个端口使用8芯光纤,因此每台交换机有64x400G端口。且即将到来的新一代交换机,很大可能将采用XDR端口。这意味着每台交换机将有64x800G端口,每个端口也使用8芯光纤(主要是单模光纤)。
如表1所示,该4通道(8芯光纤)模式在InfiniBand路线图中反复出现,且未来将使用更快的速度。
就布线而言,在超算(HPC)领域普遍采用的最佳做法是:采用点对点有源光缆(AOC)。然而,随着(MPO)光纤连接器接口的最新NDR端口的推出,点对点连接的情形已从AOC光缆转变为MPO-MPO无源跳线。在考虑单个具有256个GPU的pod时,利用点对点连接没有什么大问题。但是在追求更大的规模时就遇到了问题,例如16k GPU需要64个具有256个GPU的pod实现互连。这些高性能GPU集群使用的计算结构对于线路路由优化有极高的要求。在线路路由优化设置中,来自每个计算系统的所有主机通道适配器(HCA)均连接至同一个叶交换机(leaf switch)。
据说该设置对于最大限度提高深度学习(DL)训练性能至关重要。一个标准的H100计算节点配备4个双端口OSFP,转换为8个上行链路端口(每个GPU一个独立上行链路)与八个不同的叶交换机连接,由此建立一个8条线路优化结构。
该设计在处理单个具有256个GPU的pod时可以无缝工作。但如果目标是构建一个包含16,384个GPU的集群时该怎么办?在这种场景中,有必要增加两个交换层:来自每个pod的第一个叶交换机与脊交换机组一(SG1)中的每个交换机连接,每个pod内的第二个叶交换机与脊交换机组二(SG2)中的每个交换机连接,以此类推。为取得完全实现的胖树(fat-tree)拓扑结构,必须加入第三层核心交换组(CG)。
让我们回顾一下16,384个GPU集群的光缆连接数量。计算节点和叶交换机之间建立连接需要16,384根光缆,每个pod有256根MPO跳线。在开始网络拓展的过程时,建立叶-脊连接和脊-核心连接的任务变得更具有挑战性。涉及到先捆扎多根MPO跳线,然后将其敷设50米至500米不等的距离。
有没有更高效的运营方式?一个建议是采用结构化布线系统,该系统采用两个接线板设计,利用大芯数MPO干线,可能采用144根光纤。这样就能把18根MPO跳线(18x8=144)合并成一根干线光缆,一次敷设完成。通过在端点使用合适的MPO适配器面板,可将它们拆开为多根8芯光缆,并与恰当的线路连接,避免捆绑多根MPO跳线带来的复杂度。
对于一个非阻塞结构,每个pod需要256条上行链路。我们可选择从每个pod拉出15x144根光纤干线,产生270(15x18)上行链路(只需使用15个大芯数线缆)。另外,该设置提供14(270-256)个备用连接,可作备份或用于存储或管理网络连接。
人工智能在理解问题方面取得了重大进展。就实现这种转变而言,寻求能够支持广泛GPU集群(包括16K GPU或24K GPU)的布线解决方案,是这一难题的重要组成部分,也是光连接行业面临的挑战。