AI芯片谁主未来:CPU GPU FPGA
发布时间:2023-04-25 14:31:05 热度:1358
4/25/2023,光纤在线讯,最近,出现频率比较高的名词,比如,CPU,GPU,AI等新词层出不穷,而我们也经常会对这些新名词感到疑惑,这之间有什么关联,又有什么区别,是不是越来越重要了,带着疑问,我翻看了一些研报,咨询了身边相关领域的专家,一一解惑。
那么什么是CPU?CPU名为中央处理器,是一块超大规模的集成电路,是一台计算机的运算核心和控制核心。其功能主要是解释计算机指令以及处理计算机软件中的数据。计算机的性能在很大程度上由CPU的性能所决定,而CPU的性能主要体现在其运行程序的速度上。
一些机构的分析员认为,之所以出现”X”PU,是因为CPU的算力达到瓶颈,无法在继续上升,满足日益增长的算力需求,提升算力又主要依靠提高时钟频率和增加处理器内核数,但是很遗憾,这些方法也遇到了瓶颈,于是现在我们逐渐开始把一些重复的工作安放到一个专用的加速器,来达到降低功耗,提升性能的目的,而放弃传统的CPU大管家处理模式,这就促使”X”PU的加速器的兴起。
据资料显示,GPU(英语:graphics processing unit,图形处理器),又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。
GPU使显卡减少了对CPU的依赖,并进行部分原本CPU的工作,两者的设计原理也截然不同。
GPU的设计原理:总结为大量的简单运算
1、大量的运算单元:负责简单粗暴的计算,不擅长奥数题,但小学题他会;
2、少量的控制单元和缓存单元:主要是负责合并和转发数据,对这两块的需求较小,所以占据GPU较小的空间。
CPU的设计原理:因为CPU涉及到通用计算,复杂度较高,总结成少量的复杂计算。
1、需要少量的运算单元,强大的逻辑运算能力,可以理解为4个专家,既可以做奥数题,也可以做加减法;
2、需要足够的控制单元实现复杂的数据控制和数据转发;
3、需要足够的缓存单元去存放一些已经计算完成的结果,或者是后面马上要用到的数据。
在今年的GTC 2023中,英伟达推出了全新的GPU推理平台,截至目前,英伟达的GPU芯片正在为全球绝大多数的人工智能系统提供最基础的算力支持,而ChatGPT母公司OpenAI,便是凭借着10000片英伟达的GPU芯片,成功训练出了GPT-3大语言模型,震惊了全世界。
根据中国仪器仪表行业发布的资料显示,FPGA是数字芯片的一类分支,与CPU、GPU等功能固定芯片不同的是,FPGA制造完成后可根据用户需要,赋予其特定功能,也可以理解为半定制化芯片。
它本质是一种可编程的芯片,人们可以把硬件设计重复烧写在它的可编程存储器里,从而使FPGA芯片可以执行不太的硬件设计和功能。具有可编程灵活性高,开发周期短和并行计算效率高的优势。
FPGA相比CPU的巨大优势在于确定性的低时延,这是架构差异造成的。CPU的利用率越高,处理时延便越大,而FPGA无论利用率大小,其处理时延是稳定的。在汽车和工业这些需要确定低时延的场景,FPGA具有非常大的优势。
此外,FPGA相比CPU,具有更高的灵活性。
关于AI芯片,广义上讲,能运行AI算法的芯片都叫AI芯片,目前通用的CPU、GPU、FPGA等都能执行AI算法,只是执行效率差异不同,但侠义上来说,一般将AI芯片定义为,专门针对AI算法做了特殊加速设计的芯片。
目前AI芯片的主要用于语音识别、自然语言处理、图像处理等大量使用AI算法的领域,通过芯片加速提高算法效率。
它可以理解为一个快速计算乘法和加法的计算器,而CPU要处理和运行非常复杂的指令集,难度比AI芯片大很多。GPU虽然为图形处理而设计,但是CPU与GPU并不是专用AI芯片,其内部有大量其他逻辑来实现其他功能,这些逻辑对于目前的AI算法来说完全无用。目前经过专门针对AI算法做过开发的GPU应用较多,也有部分企业用FPGA做开发,但是行业内对于AI算法必然出现专用AI芯片。
根据以上了解,我们可以总结为:
CPU是一个有多种功能的优秀领导者。它的优点在于调度、管理、协调能力强,计算能力则位于其次。而GPU相当于一个接受CPU调度的“拥有大量计算能力”的员工。
GPU 作为图像处理器,设计初衷是为了应对图像处理中需要大规模并行计算。因此,其在应用于深度学习算法时,也有一定的局限性。
FPGA,其设计初衷是为了实现半定制芯片的功能,即硬件结构可根据需要实时配置灵活改变。
尽管 FPGA 倍受看好,甚至百度大脑、地平线AI芯片也是基于FPGA 平台研发,但其毕竟不是专门为了适用深度学习算法而研发,实际仍然存在不少局限。
人工智能定制芯片是大趋势,从发展趋势上看,人工智能定制芯片将是计算芯片发展的大方向。
AI芯片赋能算力基石,根据芯片的类别,众多算力芯片中,以GPU用量最大,据IDC数据,预计到2025年GPU仍将占据AI芯片8成市场份额。
就英伟达GPU产品来看,其产品线丰富、产品性能顶尖、开发生态成熟,目前全球AI算力芯片市场由英伟达的GPU垄断,根据中国信通院的数据,2021年Q4英伟达占据了全球95.7%的GPU算力芯片市场份额。2023财年,英伟达数据中心营收达到150亿美元,同比增长41%,FY2017-FY2023复合增速达63%,表明全球AI芯片市场规模保持高速增长。
那么什么是CPU?CPU名为中央处理器,是一块超大规模的集成电路,是一台计算机的运算核心和控制核心。其功能主要是解释计算机指令以及处理计算机软件中的数据。计算机的性能在很大程度上由CPU的性能所决定,而CPU的性能主要体现在其运行程序的速度上。
一些机构的分析员认为,之所以出现”X”PU,是因为CPU的算力达到瓶颈,无法在继续上升,满足日益增长的算力需求,提升算力又主要依靠提高时钟频率和增加处理器内核数,但是很遗憾,这些方法也遇到了瓶颈,于是现在我们逐渐开始把一些重复的工作安放到一个专用的加速器,来达到降低功耗,提升性能的目的,而放弃传统的CPU大管家处理模式,这就促使”X”PU的加速器的兴起。
据资料显示,GPU(英语:graphics processing unit,图形处理器),又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。
GPU使显卡减少了对CPU的依赖,并进行部分原本CPU的工作,两者的设计原理也截然不同。
GPU的设计原理:总结为大量的简单运算
1、大量的运算单元:负责简单粗暴的计算,不擅长奥数题,但小学题他会;
2、少量的控制单元和缓存单元:主要是负责合并和转发数据,对这两块的需求较小,所以占据GPU较小的空间。
CPU的设计原理:因为CPU涉及到通用计算,复杂度较高,总结成少量的复杂计算。
1、需要少量的运算单元,强大的逻辑运算能力,可以理解为4个专家,既可以做奥数题,也可以做加减法;
2、需要足够的控制单元实现复杂的数据控制和数据转发;
3、需要足够的缓存单元去存放一些已经计算完成的结果,或者是后面马上要用到的数据。
在今年的GTC 2023中,英伟达推出了全新的GPU推理平台,截至目前,英伟达的GPU芯片正在为全球绝大多数的人工智能系统提供最基础的算力支持,而ChatGPT母公司OpenAI,便是凭借着10000片英伟达的GPU芯片,成功训练出了GPT-3大语言模型,震惊了全世界。
根据中国仪器仪表行业发布的资料显示,FPGA是数字芯片的一类分支,与CPU、GPU等功能固定芯片不同的是,FPGA制造完成后可根据用户需要,赋予其特定功能,也可以理解为半定制化芯片。
它本质是一种可编程的芯片,人们可以把硬件设计重复烧写在它的可编程存储器里,从而使FPGA芯片可以执行不太的硬件设计和功能。具有可编程灵活性高,开发周期短和并行计算效率高的优势。
FPGA相比CPU的巨大优势在于确定性的低时延,这是架构差异造成的。CPU的利用率越高,处理时延便越大,而FPGA无论利用率大小,其处理时延是稳定的。在汽车和工业这些需要确定低时延的场景,FPGA具有非常大的优势。
此外,FPGA相比CPU,具有更高的灵活性。
关于AI芯片,广义上讲,能运行AI算法的芯片都叫AI芯片,目前通用的CPU、GPU、FPGA等都能执行AI算法,只是执行效率差异不同,但侠义上来说,一般将AI芯片定义为,专门针对AI算法做了特殊加速设计的芯片。
目前AI芯片的主要用于语音识别、自然语言处理、图像处理等大量使用AI算法的领域,通过芯片加速提高算法效率。
它可以理解为一个快速计算乘法和加法的计算器,而CPU要处理和运行非常复杂的指令集,难度比AI芯片大很多。GPU虽然为图形处理而设计,但是CPU与GPU并不是专用AI芯片,其内部有大量其他逻辑来实现其他功能,这些逻辑对于目前的AI算法来说完全无用。目前经过专门针对AI算法做过开发的GPU应用较多,也有部分企业用FPGA做开发,但是行业内对于AI算法必然出现专用AI芯片。
根据以上了解,我们可以总结为:
CPU是一个有多种功能的优秀领导者。它的优点在于调度、管理、协调能力强,计算能力则位于其次。而GPU相当于一个接受CPU调度的“拥有大量计算能力”的员工。
GPU 作为图像处理器,设计初衷是为了应对图像处理中需要大规模并行计算。因此,其在应用于深度学习算法时,也有一定的局限性。
FPGA,其设计初衷是为了实现半定制芯片的功能,即硬件结构可根据需要实时配置灵活改变。
尽管 FPGA 倍受看好,甚至百度大脑、地平线AI芯片也是基于FPGA 平台研发,但其毕竟不是专门为了适用深度学习算法而研发,实际仍然存在不少局限。
人工智能定制芯片是大趋势,从发展趋势上看,人工智能定制芯片将是计算芯片发展的大方向。
AI芯片赋能算力基石,根据芯片的类别,众多算力芯片中,以GPU用量最大,据IDC数据,预计到2025年GPU仍将占据AI芯片8成市场份额。
就英伟达GPU产品来看,其产品线丰富、产品性能顶尖、开发生态成熟,目前全球AI算力芯片市场由英伟达的GPU垄断,根据中国信通院的数据,2021年Q4英伟达占据了全球95.7%的GPU算力芯片市场份额。2023财年,英伟达数据中心营收达到150亿美元,同比增长41%,FY2017-FY2023复合增速达63%,表明全球AI芯片市场规模保持高速增长。