首页 首页 人工智能 查看内容

AI芯片发展概述及市场分析

木马童年 2019-9-29 17:24 40 0

业界对AI芯片尚没有严格的界定,广义上说,擅长执行人工智能算法的芯片即为AI芯片,目前主要有GPU、FPGA和ASIC三种技术路线。根据承担的任务和部署位置,大致可以将AI芯片分为云端训练芯片、云端推断芯片和终端推断 ...

AI芯片发展概述及市场分析


业界对AI芯片尚没有严格的界定,广义上说,擅长执行人工智能算法的芯片即为AI芯片,目前主要有GPU、FPGA和ASIC三种技术路线。

根据承担的任务和部署位置,大致可以将AI芯片分为云端训练芯片、云端推断芯片和终端推断芯片三种。深度学习算法与传统算法不同,其参数的形成依赖于在大量数据中不断训练,这种训练目前只能在云端完成;算法形成后则可以用于推断,即输入新数据并获得相应的智能输出,推断既可以在云端完成,也可以在终端完成。

云端训练:云端即数据中心,对神经网络而言,训练过程就是通过不断更新网络参数,使推断(或者预测)误差最小化的过程。云端训练对芯片性能的要求很高,主要包括:(1)计算精度,必须支持具有较长字长的浮点数或定点数;(2)不仅要具有强大的单芯片计算能力,还要具备很好的扩展性,可以通过多芯片系统提供更强大的计算能力;(3)对内存数量、访问内存的带宽和内存管理方法的要求都非常高。

云端推断:推断过程是指直接将数据输入神经网络并评估结果的正向计算过程。相比训练芯片,推断芯片考虑的因素更加综合:单位功耗算力、时延、成本等等。

终端推断:对于终端推断任务,由于应用场景多种多样,芯片部署在各种设备中,如自动驾驶汽车、智慧家居产品和各类IoT设备等,其需求和约束也呈现出多样化的特点。对于多数应用来说,速度、面积、能效、安全和硬件成本是最重要的考虑因素,而模型的准确度和数据精度则可以依据、具体情况适当降低。

总的来说,云侧AI处理主要强调精度、处理能力、内存容量和带宽,同时追求低延时和低功耗;边缘设备中的AI处理则主要关注功耗、响应时间、体积、成本和隐私安全等问题。

AI芯片技术路线

深度学习算法在2010年前后兴起,并逐步掀起本轮人工智能浪潮。为了满足深度学习算法对高算力的要求,学界和业界针对神经网络的特点对原有的芯片架构进行优化,或提出新的芯片架构,目前主要有GPU、FPGA和ASIC三种技术路线。

GPU最早被用于加速深度学习算法,是目前应用最成熟的AI芯片。GPU是显卡的核心,最早仅用于图形渲染,但GPU计算能力强大,逐渐被用于通用计算(即通用GPU)。由于GPU发展早,应用普遍,软件生态成熟完善,尤其是其具备良好的矩阵计算能力和并行计算优势,在执行深度学习算法时相比CPU有巨大优势,因此深度学习兴起时,最早被用于AI计算,随后在数据中心获得大量应用。但GPU不是专门为了执行AI算法而设计的,相比AI专用处理器,在执行深度学习算法时存在能耗较高、效率较低等特点,但英伟达也在持续挖掘其执行深度学习算法的能力。

在云端,通用GPU,特别是英伟达系列GPU芯片,被广泛应用于深度神经网络训练和推理。与CPU相比,拥有数千个计算内核的GPU可以实现10-100倍的吞吐量。英伟达最新的TeslaV100除了GPU核之外,还专门针对深度学习设计了张量核(Tensor Cores),能够提供120TFLOPS(每秒120万亿次浮点指令)的处理能力。同时,英伟达GPU还有比较完善的软件开发环境,是目前AI训练领域使用最广泛的平台。

FPGA具备可编程性,可支持产品快速上市,同时相比CPU具备更强的计算能力。FPGA即现场可编程门阵列,其利用门电路直接运算,速度快,而用户可以自由定义这些门电路和存储器之间的布线,改变执行方案。也就是说,FPGA芯片上的电路可以反复更改,具有很高的灵活性。因此,FPGA在传统上主要应用于处理器芯片研发过程中的验证阶段,用于在流片前检验处理器设计的正确性。近年来,因为FPGA灵活性较好、处理简单指令重复计算比较强,用在云计算架构形成CPU+FPGA的混合异构中相比GPU具备更低功效和高性能,适用于高密度计算,在深度学习的推理阶段有着更高的效率和更低的成本,使得全球科技巨头纷纷布局云端FPGA生态。

相比AI算法专用芯片ASIC,FPGA的性能和功耗仍有提升空间。FPGA迭代速度快,能够快速切入刚刚兴起的领域,但当这个领域的重要性不断凸显,FPGA最终会被专用芯片所替代,因为其运算速度和性能功耗比专用芯片仍有较大差距。

ASIC是专用定制芯片的统称,与GPU和FPGA相比,不同的ASIC芯片之间在设计、架构、工具链等各方面可能存在较大的不同。ASIC基于人工智能算法进行定制,在大规模量产的情况下具备性能更强、体积更小、功耗更低、成本更低、可靠性更髙等优点。但其缺点在于通用性差,前期研发成本高,研发周期长。在缺乏产量的情况下研发ASIC芯片是不经济的。

ASIC定制化的特点使其能够针对不同环境达到最佳适应,理论上是执行AI算法时最优的产品。目前由于人工智能产业仍处在发展的初期,较高的研发成本和变幻莫测的市场使得很多企业望而却步。未来当人工智能技术、平台和终端的发展达到足够成熟度,人工智能应用的普及程度使得专用芯片能够达到量产水平,ASIC芯片的发展将大有可为。

表1 四种常见芯片对比


资料来源:艾瑞咨询

未来AI时代,深度学习专用芯片ASIC将成为主流。根据Gartner在2018年发布的人工智能技术成熟度曲线,深度神经网络ASIC尚处于快速攀升的创新萌芽期,在性能和能耗方面的优势非常明显,预计这一市场将在2至5年内趋于成熟,Gartner建议企业将ASIC解决方案纳入规划范围,并在使用ASIC可以实现更好的业务发展时停用GPU解决方案;相比之下,GPU加速器已经处于实质生产的高峰期,技术成熟,可以为高性能计算(HPC)和深度神经网络训练中的高度并行计算密集型工作负荷提供极高的性能。

AI芯片企业格局

算力作为人工智能发展的三大支柱之一越来越受到重视。目前市场上的AI芯片企业主要可以分为三类:

(1)AI芯片初创企业。2015年后密集出现了一批以AI芯片为方向的创业公司,这些企业往往具备拥有丰富芯片开发经验的团队,在研发产品上创新能力强,部分企业的技术甚至较传统芯片企业更优。

(2)AI算法公司向上游拓展研发基于自身业务的终端AI芯片。这些公司大部分成立于2012年后,自身业务已经初具规模,通过研发芯片配合算法,使得其在产品优化上具有主导权,并节省委外业务的成本,有利于与现有的客户加深合作。

(3)传统芯片巨头。英伟达已经凭借其GPU产品成为云端训练市场的垄断者,英特尔、AMD等也在积极发力AI芯片市场。传统芯片厂商具有丰富的芯片设计经验,同时强大的资金实力又可以支撑起芯片研发的巨大成本,成为市场竞争中最强大的力量。

在AI专用芯片(ASIC)设计领域,中国与世界处于同一起跑线上,部分中国企业处于世界前列。近年来,在芯片自主可控的呼声下,中国AI芯片企业在一级市场融资火热,并诞生了寒武纪、地平线等AI独角兽。

AI芯片:人工智能发展的引擎

计算力的提升是人工智能市场快速增长的重要驱动力。全球范围内越来越多的政府和企业组织逐渐认识到人工智能在经济和战略上的重要性,并从国家战略和商业活动上涉足人工智能。全球人工智能市场将在未来几年经历现象级的增长。据推算,世界人工智能市场将在2020年达到6800亿元人民币,复合增长率达26.2%。

人工智能将提升社会劳动生产率,特别是在有效降低劳动成本、优化产品和服务、创造新市场和就业等方面为人类的生产和生活带来革命性的转变。根据Sage预测,到2030年人工智能的出现将为全球GDP带来额外14%的提升,相当于15.7万亿美元的增长。

AI芯片市场随人工智能发展持续火爆,预计2023年全球AI芯片市场规模将达到343亿美元。根据Gartner的测算和预测,2018年全球AI芯片市场规模达42.7亿美元,预计到2023年将达343亿美元;由于专用处理器ASIC根据人工智能算法做特殊优化,最能满足深度学习对算力的要求,未来十年将迎爆发式增长。

在不久的将来,多智时代一定会彻底走入我们的生活,有兴趣入行未来前沿产业的朋友,可以收藏多智时代,及时获取人工智能、大数据、云计算和物联网的前沿资讯和基础知识,让我们一起携手,引领人工智能的未来!

AI芯片 芯片 深度学习 在云端 智能 数据中心
0