FPGA和SoC对机器学习的优化方案解析

时间:2025-04-27  作者:Diven  阅读:0

作者:KEVIN FOGARTY

FPGA和SoC对机器学习的优化方案解析

一系列机器学习优化芯片预计将在未来几个月内开始出货,但数据中心需要一段时间才能决定这些新的加速器是否值得采用,以及是否真的能在性能上获得大幅提升。

有大量的报道称,为机器学习设计的定制芯片将提供100倍于现有选择的性能,但在要求严格的商业用途的实际测试中的功能尚未得到证实,数据中心是新技术最保守的采用者。不过,Graphcore、Habana、ThinCI和Wave Computing等知名初创公司表示,已经将早期芯片提供给客户进行测试。但还没有一家公司开始发货,甚至没有展示这些芯片。

这些新设备有两个主要市场。机器学习中的神经网络将数据分为两个主要阶段:训练和推理,并且在每个阶段中使用不同的芯片。虽然神经网络本身通常驻留在训练阶段的数据中心中,但可能具有用于推理阶段的边缘组件。现在的问题是什么类型的芯片以及哪种配置能够产生最快、最高效的深度学习。

看来FPGAs和SoCs正在获得更多的吸引力。Tirias Research总裁吉姆·麦格雷戈(Jim McGregor)说,这些数据中心需要可编程芯片的灵活性和高I/O能力,这有助于FPGA在训练和推理的高数据量、低处理能力需求中有着作用。

与几年前相比,FPGA的设置现在用于训练的频率更低了,但在其任何事情上的使用频率都要高得多,而且很可能在明年继续增长。即使大约50家致力于神经网络优化处理器迭代开发的初创公司今天都交付了成品,在任何规模可观的数据中心的生产流程中,也需要9到18个月的时间。

McGregor说:“没有人会买现成的数据中心,然后把放到生产机器上。”“您必须确保满足可靠性和性能要求,然后才能将其全部部署。”

图1:不同类型深度学习芯片占比

对于新的架构和微体系架构,仍然有机会。ML工作负载正在迅速扩展。OpenAI 5月份的一份报告显示,用于最大AI/ML训练的计算能力每3.5个月就增加一倍,自2012年以来,计算能力的总量增加了30万倍。相比之下,按照摩尔定律,可用资源每18个月增加一倍,最终总容量仅增加12倍。

Open.AI指出,用于最大规模训练的系统(其中一些需要几天或几周的时间才能完成)需要花费数百万美元购买,但预计,用于机器学习硬件的大部分资金将用于推理。 

图2:计算需求正在增加 

这是一个巨大的全新的机遇。TractICa在5月30日的一份报告中预测,到2025年,深度学习芯片组的市场规模将从2017年的16亿美元增至663亿美元,其中包括CPU,GPU,FPGA,ASIC,SoC加速器和其芯片组。其中很大一部分将来自于非芯片公司,正在发布自己的深度学习加速器芯片组。谷歌的TPU就是这么做的,业内人士表示,亚马逊和Facebook正在走同样的道路。

McGregor说,现在主要转向SoC而不是独立的组件,并且SoC、ASIC和FPGA供应商的策略和封装的多样性日益增加。

Xilinx、Inetel和其公司正试图通过向FPGA阵列添加处理器和其组件来扩大FPGA的规模。其,如Flex Logix、Achronix和Menta,将FPGA资源嵌入到靠近SoC特定功能区域的小块中,并依赖高带宽互连来保持数据的移动和高性能。

McGregor说:“你可以在任何你想要可编程I/O的地方使用FPGA,人们会将用于推理,有时还会进行训练,但是你会发现会更多地用于处理大数据任务而不是训练,这需要大量的矩阵乘法,更适合于GPU。”

GPU并不是濒临灭绝的物种。根据MoorInsights & Strategy分析师Karl Freund在一篇博客文章中所说。

英伟达本月早些时候公布了NVIDIA TensorRT超大尺寸推理平台的声明,其中包括提供65TFLOPS用于训练的Tesla T4 GPU和每秒260万亿次4位整数运算(TOPS)的推理 - 足以同时处理60个视频流速度为每秒30帧。包括320“Turing Tensorcores”,针对推理所需的整数计算进行了优化。 

新的架构

Graphcore是最著名的初创公司,正在开发一款236亿晶体管的“智能处理单元”(IPU),具有300MB的片上存储器,1216个核心,每个核心可以达到11GFlops,内部存储器带宽为30TB/s。其中两个采用单个PCIe卡,每个卡都设计用于在单个芯片上保存整个神经网络模型。

GraphCore即将推出的芯片基于图形架构,该架构依赖于其软件将数据转换为顶点,其中数字输入,应用于函数(加,减,乘,除)和结果是单独定义的,可以是并行处理。其几家ML初创公司也使用类似的方法。 

Wave Computing没有透露何时发货,但在上周的人工智能硬件会议上透露了更多关于其架构的信息。该公司计划销售系统而不是芯片或电路板,使用带有15 Gbyte /秒端口的16nm处理器和HMC存储器和互连,这种选择旨在快速推送图形通过处理器集群而无需通过处理器发送数据超过瓶颈一个PCIe总线。该公司正在探索转向HBM内存以获得更快的吞吐量。

图3:Wave计算的第一代数据流处理单元

机器学习的异构未来和支持的硅片的最佳指标来自微软 - 这是FPGA,GPU和其深度学习的巨大买家。

“虽然面向吞吐量的架构,如GPGPUs和面向批处理的NPU,在离线训练和服务中很受欢迎,但对于DNN模型的在线、低延迟的服务,效率并不高,”2018年5月发表的一篇论文描述了Brainwave 项目,这是微软在deep neural networking (DNN)中高效FPGA的最新版本。

微软率先将FPGA用作大规模数据中心DNN推理的神经网络推理加速器。Rambus的杰出发明人兼企业解决方案技术副总裁Steven Woo表示,该公司不是将用作简单的协处理器,而是“更灵活,一流的计算引擎”。

根据微软的说法,Brainwave项目可以使用英特尔Stratix 10 FPGA池提供39.5 TFLOPS的有效性能,这些FPGA可以被共享网络上的任何CPU软件调用。框架无关系统导出深度神经网络模型,将转换为微服务,为Bing搜索和其Azure服务提供“实时”推理。

图4:微软的Brainwave项目将DNN模型转换为可部署硬件微服务,将任何DNN框架导出为通用图形表示,并将子图分配给CPU或FPGA

Brainwave是德勤全球(DeloitteGlobal)所称的“戏剧性转变”的一部分,这一转变将强调FPGA和ASIC,到2018年,将占据机器学习加速器25%的市场份额。2016年,CPU和GPU占据了不到20万台的市场份额。德勤预测,到2018年,CPU和GPU将继续占据主导地位,销量将超过50万部,但随着ML项目数量在2017年至2018年翻一番、在2018年至2020年再翻一番,总市场将包括20万FPGA和10万ASIC。

德勤(Deloitte)表示,FPGA和ASIC的耗电量远低于GPU、CPU,甚至比谷歌每小时75瓦的TPU耗电量还要低。还可以提高客户选择的特定功能的性能,这可以随着编程的变化而改变。

Achronix的营销副总裁SteveMensor说:“如果人们有选择,会在硬件层面上用ASIC构建东西,但是FPGA比GPU有更好的功耗/性能,而且在定点或可变精度架构方面非常擅长。” 

ArterisIP的董事长兼首席执行官CharlieJanac说:“有很多很多的内存子系统,你必须考虑低功耗和物联网应用,网格和环路。”“所以你可以把所有这些都放到一个芯片中,这是你决策物联网芯片所需要的,或者你可以添加高吞吐量的HBM子系统。但是工作负载非常特殊,每个芯片有多个工作负载。数据输入是巨大的,尤其是如果你要处理雷达和激光雷达之类的东西,而这些东西没有先进的互连是不可能存在的。

由于应用程序的特殊性,连接到该互连的处理器或加速器的类型可能会有很大的不同。

NetSpeed Systems负责营销和业务开发的副总裁阿努什•莫罕达斯(Anush Mohandass)表示:“在核心领域,迫切需要大规模提高效率。”““我们可以放置ASIC和FPGA以及SoC,我们的预算越多,我们就可以放入机架。”但最终你必须高效;你必须能够进行可配置或可编程的多任务处理。如果你能将多播应用到向量处理工作负载上,而向量处理工作负载是大部分训练阶段的内容,那么您能够做的事情就会大大扩展。“

FPGA并不是特别容易编程,也不像乐高积木那样容易插入设计,尽管正在朝着这个方向快速发展,SoC比FPGA更容易使用计算核心、DSP核心和其IP模块。

但是,从类似SoC的嵌入式FPGA芯片转变为具有针对机器学习应用优化的数据背板的芯片上的完整系统并不像听起来那么容易。 

Mohandass说:“性能环境是如此的极端,需求是如此的不同,以至于AI领域的SoC与传统的架构完全不同。”“现在有更多的点对点通信。你正在做这些向量处理工作,有成千上万的矩阵行,你有所有这些核心可用,但我们必须能够跨越几十万个核心,而不是几千个。

性能是非常重要的。设计、集成、可靠性和互操作性的便捷性也是如此——SoC供应商将重点放在底层框架和设计/开发环境上,而不仅仅是针对机器学习项目的特定需求的芯片组。

NetSpeed推出了专门为深度学习和其人工智能应用程序设计的SoC集成平台的更新版本,该服务使集成NetSpeed IP变得更容易,该设计平台使用机器学习引擎推荐IP块来完成设计。该公司表示,其目标是在整个芯片上提供带宽,而不是传统设计的集中式处理和内存。

Mohandass说:“从ASIC到神经形态芯片,再到量子计算,一切都在进行中,但即使我们不需要改变我们当前架构的整体基础(以适应新的处理器),这些芯片的大规模生产仍遥遥无期。”但我们都在解决同样的问题。当从上到下进行工作时,我们也从下到上进行工作。

Flex Logix的CEOGeoff Tate认为,CPU仍然是数据中心中最常用的数据处理元素,其次是FPGA和GPU。但指出,需求不太可能在短时间内下降,因为数据中心试图跟上对自己的机器学习应用程序的需求。

泰特说:“现在人们花了很多钱来设计出比GPU和FPGA更好的产品。”“总的趋势似乎是神经网络的硬件更加专业化,所以这就是我们可能会走向的地方。”例如,微软表示,使用所有东西——CPU、GPU、TPU和FPGA——根据这些,可以在特定的工作负载下获得最佳的性价比。

编辑:黄飞

 

猜您喜欢

伞袋是专为雨伞设计的收纳袋,旨在保护雨伞不受外界环境的影响,同时方便携带和存放。通常由防水材料制成,可以有效防止雨水渗透,保持包内干燥。伞袋的形状和大小多样,适...
2011-10-25 00:00:00

数字化时代,电脑已经成为我们生活中重要的一部分。无论是工作、学习还是娱乐,长时间面对电脑屏幕已经成为常态。然而,长时间在昏暗的环境下使用电脑,不仅容易造成眼疲劳...
2024-10-08 00:00:00

钛酸锶环形压敏电阻(Strontium Titanate Ring Varistor)是一种具有优良电气特性的材料,应用于电子元器件中,尤其是在保护电路和信号处...
2025-03-17 15:30:03

接地编织带是重要的电气连接组件,应用于多个领域。在电力行业中,接地编织带用于设备的接地,确保电气安全,防止漏电和短路事故,保护人身安全和设备正常运行。在通信行业...
2024-05-08 00:00:00

最近一个最炫酷的词汇频繁进入人们的视线,那就是“人形机器人”,2025年更是被定义为商用化量产元年,也就意味着从今年开始人形机器人正式开启了一个全新的赛道。据...
2025-01-15 09:36:00

Register 和 Memory 的复位Register是有复位端口的,当我们assert复位端口,寄存器便被复位到0。而FPGA中的Memory通常是没...
2023-10-09 14:21:00

0 引言近些年来,由于其灵活可配置性及成本的降低,现场可编程门阵列(Field Programmable Gate Array,FPGA)在嵌入式系统中应用越...
2020-01-27 16:17:00

肖特基二极管是特殊类型的二极管,快速的开关特性和低正向压降而应用于各种电子电路中。了解肖特基二极管的引脚结构和功能对于电子工程师和爱好者来说非常重要。本文将详细...
2025-04-05 09:01:38

信号灯是交通管理中不可少的重要设施,在不同的场合和功能上存在着多种区别。信号灯的颜色分为红、黄、绿三种,每种颜色代表着不同的交通指令。红灯表示停车,黄灯提醒车辆...
2015-04-01 00:00:00

塑料拖链在现代机械和自动化设备中有着着重要作用。主要用于保护和引导电缆、气管和液管,确保其在运动过程中不受损坏。拖链的设计使得电缆和管道能够有序排列,避免交叉缠...
2016-03-13 00:00:00