全面梳理!国产IC尖子生AI芯片 VS 落后生模拟芯片
上周五(1月10日),芯师爷发布了《超详尽!芯片全景图和国产数字芯片的机会》文章,本篇为该文章下篇,作者继续深入剖析国产数字芯片与模拟芯片的产业。
人工智能芯片——国产芯片弯道超车的机会
1.人工智能芯片及发展
人工智能深度神经网络中,最关键的能力是“训练”和“推理”。因此AI芯片可分为训练芯片和推理芯片。
“训练”是从海量的数据中完成特征的学习,这需要极高的计算精度、较大的内存和访问带宽,主要应用在云计算、数据中心上。英伟达凭借GPU成为AI云端芯片的龙头,英特尔也通过大举收购AI芯片企业与英伟达积极竞争。其他AI云端芯片主要有谷歌的TPU、寒武纪NPU、阿里巴巴的含光800、华为昇腾910、百度昆仑等。
“推理”取决于场景需求,需在速度、能耗、安全、硬件成本等满足不同的垂直场景需求,在云端、边缘端均有运用。根据应用场景的不同,典型的推理芯片有依图科技的云端芯片“求索”;云知声、探境科技的语音识别芯片;地平线、黑芝麻智能的自动驾驶芯片等等。
AI芯片按照使用场景可以分两类:一类是训练和推理都能够适配的CPU、GPU、FPGA;另一类是推理加速芯片,比如寒武纪的NPU、深鉴科技DPU、地平线的BPU,这类芯片既有产品,又提供IP让其他开发者将深度学习加速器集成到SoC内。
人工智能算法的发展与芯片的发展相辅相成,芯片算力的不断提升为AI算法的发展提供了基础。类比一辆汽车,算法是车轮,可以跑得更快;算力是引擎,可以跑得更远。
早期的芯片由于算力不足导致了人工神经网络的发展陷于停滞;20世纪80年代后,神经网络算法初现雏形,但算法都是通过台式机来实现,芯片的算力仍然不足,鲜有真正落地的案例;进入21世纪,随着GPU及配套技术的发展,深度学习算法得益于GPU的强大算力得以迅速进步。
2013年,Hinton的团队采用GPU架构结合现在计算机视觉常用的卷积神经网络(CNN)算法,在ImageNet的比赛中,一举将识别错误率降到18%。2014年陈天石博士(寒武纪创办人)团队提出的DianNao论文,深度学习领域才出现第一块针对人工智能加速的专用芯片设计,人工智能芯片开始了专用芯片加速的时代。
摩尔定律的减缓意味着:算法性能高速发展和机器算力提升缓慢的矛盾逐渐开始显现,在不牺牲算法性能并且充分运用芯片算力的需求下,AI的落地针对应用场景和业务逻辑定制AI芯片成为了发展方向——算法即芯片时代已经到来。
2.GPU
GPU并行计算的特性决定了其作为AI芯片被广泛运用于AI算法加速,也使英伟达成为AI芯片的龙头。
受益于AI的极速发展,英伟达在云端加速深度学习算法芯片市场几乎占垄断地位。英伟达2016年第一个推出专为深度学习优化的Pascal GPU,2017年推出了性能更优的新GPU架构Volta,及神经网络推理加速器TensorRT 3。
另外,由于英伟达发布的针对开发者提供的并行计算平台CUDA,被广泛认可和普及,积累了良好的编程环境,英伟达的GPU是目前应用最广的通用AI硬件计算平台。AWS、Facebook、Google等世界一级数据中心都使用英伟达的芯片进行AI加速。
GPU已在云端作为AI“训练”的主力芯片,在边缘、终端的安防、汽车等领域,GPU也率先落地,是目前应用范围最广、灵活度最高的AI硬件。
虽然目前英伟达在AI芯片领域风头正劲,不过顶着“应用最广泛AI芯片”光环的英伟达,也还面临FPGA和ASIC等专用化程度更高、计算力更强的芯片的挑战。
3.FPGA
FPGA 现场可编程门阵列,拥有大量可编程的逻辑单元,可以根据需求来制定有针对性的算法设计。
性能方面,FPGA劣于GPU,但通过编程语言自由定义门电路和存储器之间的布线,生成算法专用电路,同时利用门电路直接并行运算,实现了算法加速。FPGA目前是AI芯片非常合适的方案之一。
FPGA的优势是在写入软件前它有胜于CPU的通用性,写入软件后它有类似于ASIC的表现,是算法未定型前的阶段性最佳选择。FPGA相比GPU功耗低,同时相比ASIC具有更加灵活编程的特点。
开创者赛灵思(Xilinx)
赛灵思(Xilinx)是FPGA芯片技术的开创者,从2011年起,赛灵思提出全编程的理念,作为FPGA行业长期的霸主,赛灵思拥有超过2万家下游客户。
在现阶段云端数据中心业务中,FPGA以其灵活性和可深度优化的特点,有望继GPU之后在该市场爆发,微软、AWS、华为云、阿里云等均在云端加入FPGA进行算法加速。画面渲染、基因组测序、金融风险分析等领域的定制化算法可以低成本的在云端写入,利用FPGA的加速实现场景应用。除了云,在边缘计算领域,FPGA也应用于人工智能创业公司深鉴科技、瑞为等的机器学习场景中。
2018年赛灵思重磅推出全新一代AI芯片架构ACAP,以及采用ACAP架构的首款代号为Everest的AI芯片,正面“宣战”英特尔和英伟达。
同年赛灵思收购国内三大AI芯片独角兽之一的深鉴科技,该公司主攻终端人工智能,所采用基于FPGA来设计深度学习的加速器架构,可以灵活扩展用于服务器端和嵌入式端。
不甘落后的英特尔
英特尔已经错失了移动设备的崛起,为了不再错过人工智能而加速了AI芯片领域的布局。
为了增强在AI芯片领域的竞争力,2015年12月英特尔斥资167亿美元收购了Altera公司,这是英特尔有史以来金额最大的一次收购,意味着英特尔希望实现CPU和FPGA深层次结合来布局AI芯片市场。
2017年英特尔又收购Mobileye,希望通过整合AI算法以获得关键的优势。2018年,英特尔宣布收购芯片制造商eASIC,提高FPGA速度,降低FPGA成本和能耗需求。
英特尔通过积极的收购将自己提升到AI芯片“玩家”的前列。当前英特尔有两套FPGA的战略:打造CPU+FPGA混合器件,让FPGA与处理器协同工作;基于Arria FPGA或Stratix FPGA打造可编程加速卡。微软在2018年的Build大会上公布的Project Brainwave深度学习加速平台,就是基于英特尔 Arria FPGA和Stratix FPGA芯片所打造的。
3.ASIC
ASIC是一种为专用目的而定制设计的芯片,在大规模量产的情况下相比于FPGA有性能更强、体积更小、功耗更低、成本更低等优点。
ASIC的高研发时间成本和高技术商业化风险成了未来推广之路的一大障碍,但其体积小、成本低、功耗低、高可靠性、保密性强、计算性能高、计算效率高等优势等优势成为目前AI芯片的必争之地。
对于AI芯片的未来,突破冯·诺伊曼结构是发展方向。由于深度学习的基本操作是神经元和突触的处理,而传统的处理器指令集(包括x86和ARM等)是为了进行通用计算发展起来的,其基本操作为算术操作(加减乘除)和逻辑操作(与或非),往往需要数百甚至上千条指令才能完成一个神经元的处理,深度学习的处理效率不高。
这时就需要突破经典的冯·诺伊曼结构。神经网络中存储和处理是一体化的,而冯·诺伊曼结构中,存储和处理是分离的,分别由存储器和运算器来实现,二者之间存在巨大的差异。当用现有的基于冯·诺伊曼结构的经典计算机(如x86处理器和英伟达GPU)来跑神经网络应用时,就不可避免地受到存储和处理分离式结构的制约,因而影响效率。虽然目前FPGA和ASIC可满足部分应用场景所需,可是在长久的规划上,新一代架构的类脑芯片、存算一体芯片将会作为解决深度学习计算需求的底层架构 。
AI芯片必争之地——ASIC国内外主要参与玩家
(1)谷歌的张量处理器TPU
TPU采用了脉动阵列的组织方式。2016年,谷歌TPU在AlphaGo与李世石一役中横空出世,使AlphaGo“思考”棋招和预判局势,处理速度比GPU和CPU快上几十倍。2018年GoogleI/O开发者大会上正式发布了TPU 3.0,其性能宣称比去年的TUP2.0提升8倍之多,达到每秒1,000万亿次浮点计算,比同时期的GPU或CPU平均提速15-30倍,能效比提升30-80倍。
(2)寒武纪NPU
寒武纪出身中科院,由陈天石、陈云霁兄弟在2016年3月创立。寒武纪在云端芯片和终端芯片均有布局。
NPU中DianNaoYu指令直接面对大规模神经元和突触的处理,一条指令即可完成一组神经元的处理,并对神经元和突触数据在芯片上的传输提供了一系列专门的支持。
终端AI芯片采用IP授权模式,其产品Cambricon-1A是全球首个实现商用的深度学习处理器IP。目前寒武纪的IP面向智能手机、安防监控、无人机、可穿戴设备以及智能驾驶等各类终端设备。
(3)阿里巴巴与中星微
中星微是第一家中国自主研发制造的芯片的企业,在 2001 年成功研发出了具有自主知识产权的芯片,2003 年占有全球 60% 的市场,同时也是第一家 2005 年成功在纳斯达克上市的国产芯片企业。Vimicro AI 代表产品,星光智能 SoC 芯片——星光 1-5 号,最新代表第二代神经网络处理器芯片星光智能二号。
阿里在 2018 年收购中天微后,在今年推出首款云端 AI 加速芯片含光 800,号称目前业界性能最强的RISC-V架构芯片之一。但和华为鲲鹏类似,主要为自产自用状态。
(4) 自动驾驶领域:英特尔、英伟达和国内创企地平线、黑芝麻智能
2016年,英特尔收购的视觉处理芯片企业Movidius,其研发的VPU也是ASIC芯片。
Mobileye在汽车驾驶辅助系统领域,份额超过70%。从2007年与沃尔沃开始合作碰撞预警功能,与包括宝马、特斯拉、通用等汽车巨头合作推进驾驶辅助技术,2016年与宝马、英特尔三方联合开发自动驾驶汽车。
2017年1月,NVIDIA第一次对外展示其自动驾驶产品线Drive PX中最高阶的AI超级计算机DriveXavier。
地平线在2017年1月,携手英特尔发布基于BPU架构的最新高级辅助驾驶系统,12月,地平线机器人发布“旭日”和“征程”两款嵌入式AI芯片,面向智能驾驶和智能摄像头。
黑芝麻智能发布的“华山一号”自动驾驶芯片从算力和能效上也处于行业领先水平,对标特斯拉。
自动驾驶的热潮袭来,汽车场景也成为AI落地的良好场景。不过目前已商用的自动驾驶芯片基本处于高级驾驶辅助系统(ADAS)阶段,即可实现L1-L2等级的辅助驾驶和半自动驾驶;而适应L4-L5超高度自动驾驶及全自动驾驶的AI芯片,离规模化商用仍有距离。
(5)智能手机:苹果、华为集成ASIC芯片
目前AI在手机里面主要是辅助处理图形图像的识别(比如拍照的快速美颜)及语音语义的识别、面容识别等场景。但目前此类应用对AI算法处理速度的要求并不高。同时手机对功耗要求极高,ASIC低成本、低功耗、低面积将占据核心优势。
而在AI芯片进入手机方面,华为和苹果都先后发布了有自己独立AI处理单元的芯片。
2017年9月,华为发布了全球首款移动端AI芯片麒麟970,并将其运用于Mate10。这是业内第一次在手机芯片中,出现专门用于进行AI计算的处理单元,其集成了国内芯片创企“寒武纪”的NPU。2019年,麒麟990 SoC中,AI模块采用华为自研达芬奇架构。
苹果最新A13 Bionic芯片,集成的神经引擎进行机器学习。同时芯片中集成了一个机器学习控制器,可以自动调度CPU、GPU和神经引擎之间的机器学习操作。
(6)机器视觉落地应用:依图科技云端视觉AI推理芯片——“求索Questcore™”
依图科技提出“算法即芯片”的造芯思路,即基于问题,基于场景,用对算法,并为此设计芯片。基于此,依图运用其在机器视觉领域独特算法优势打造出云端视觉AI推理芯片“求索”,构建视频解析系统、视频解决方案,面向应用场景直接进行优化,提供智慧城市、智慧交通、智能零售的解决方案,使AI算法根据特定的场景和需求真正实现落地。
“求索Questcore™”芯片基于自主研发的神经网络加速核,能充分发挥依图世界级算法优势,适用于人脸识别、视频结构化分析、行人再识别等多种图像和视频实时智能分析任务。
在实际的云端应用场景,依图“求索”最高能提供每秒15 TOPS的视觉推理性能,每路摄像头功耗低于1W,小于一个普通的电灯泡。在同等功耗下,依图“求索Questcore™”的视觉推理性能是市面现有主流同类产品的2~5倍。
4.AI芯片主要玩家汇总
人工智能芯片的参与者主要包括传统新品制造厂商、科技/互联网巨头以及AI创业公司。
传统的芯片制造厂商:Intel,Nvidia 和AMD。他们的优势在于在已有架构上对人工智能的延伸,对于硬件的理解会优于竞争对手,但也会困顿于架构的囹圄;科技/互联网巨头在科技上层生态的构建者进入芯片设计,比如苹果、Google和阿里巴巴,优势在于根据生态灵活开发定制各类ASIC,专用性强;AI初创公司,某些全新的架构比如神经网络芯片的寒武纪,因为是全新的市场开拓,具有后发先至的可能。
AI创企作为新进入者,会凭借ASIC全新架构及算法,将有机会诞生新的独角兽。可见,国内AI创企凭借算法和落地的优势,将在AI芯片领域实现弯道超车,跻身世界领先AI芯片的机会。
移动处理器芯片——国内企业引领5G时代
作为智能手机的核心,特别是5G时代的到来,移动处理器芯片是几大厂商的竞争之地。华为、联发科、高通、三星、苹果目前是移动处理器芯片的主要玩家。
移动设备决定了低功耗、高效能是移动处理器芯片的必然要求,各大厂商的芯片产品均为SoC(System>5G标准制定后,各大厂商先后发布了自家的5G通信方案。5G芯片目前有两种形式:5G SoC和外挂5G基带。5G SoC即将5G Modem(调制解调器)集成于手机处理器平台中,外挂5G基带则将5G Modem置于处理器平台外部,而非集成。
从性能上看,华为最新的麒麟990 5G SoC和联发科的天玑1000均有不俗的实力。但麒麟990芯片目前还处于自产自用状态,对于国内其他手机厂商来说,一定程度上国产率仍然不高。
虽然5G芯片国产率不高,但国内厂商也在5G芯片领域做出了积极贡献。除华为在5G标准制定和5G推进方面有极大作为外,OPPO和vivo也对5G做出了巨大贡献。在5G必要专利排名中,OPPO作为唯一一家纯手机终端厂商上榜;在5G的研发道路上,OPPO也实现了多个第一,如率先实现基于3D结构光技术的5G视频通话演示,全球首个5G微博视频直播等。vivo则与三星合作,前后共投入了500多名专业研发工程师,历时10个月,将积累的无形资产多达400个功能特性(其中modem相关占极大比例)补充到三星平台,联合三星在硬件层面攻克了近100个技术问题,与三星一起提前完成产品的联合设计研发。
5G时代,移动处理器芯片领域国内企业会继续做出巨大贡献。
Part.3
模拟芯片
现实中一切的信号,包括光热力声电等都属于模拟信号,例如麦克风能将声音的大小转换成电压的大小,可得到一个连续的电压变化,这种连续的信号称为模拟信号,用来处理模拟信号的集成电路称为模拟芯片。
模拟芯片产品已经遍布生活中的各个角落, 无论是网络通信、 消费电子、 工业控制、 医疗设备还是汽车电子, 都会用到模拟芯片,同时,现在的许多新兴应用,包括共享单车、 AR/VR 无人机等也都会用到模拟芯片。
根据IC Insights的数据,预计2019年,模拟芯片的军事和政府应用将占全球销售收入的1.3%,通信应用将占最大的收入份额(38.5%)。模拟产品生命周期较长,模拟产品生命周期较长,可达10年之久,同时,模拟芯片市场不易受单一产业景气变动影响,市场价格和份额的波动较小。
智能手机等终端的诞生充分带动了模拟芯片的发展,以iPhone为例,其射频芯片数量已经达到数十个之多,电池管理芯片的重要性也越来越高。
随着5G和AIoT的爆发,更加广泛的模拟信号的收集和处理将带来模拟芯片市场的极速增长。射频芯片、电源管理芯片、专用模拟芯片等将成为模拟芯片增长的主要类别。
2018年全球前世模拟芯片厂商市占率来看,德州仪器TI是当之无愧的霸主,排名是第二名亚德诺(ADI)的两倍。国内无一家模拟芯片公司进入前十。
模拟芯片行业研究能力供给有限,在设计过程中,相比于数字芯片,更加依赖于设计经验,优秀的工程师具有10年以上的经验。因此,模拟芯片公司构建了强大的进入壁垒。
再者,产品的差异性和研究能力有限降低了市场竞争,同时终端市场的分散化特征继续放大模拟芯片行业优势。模拟芯片的终端市场非常分散,产品线数以万计。行业龙头在横向产品种类上具有优势,新进入者很难进行有效竞争。市场竞争格局稳定,龙头在定价能力上话语权优势明显。
一.射频芯片——5G时代的机会
1.射频器件及其构成
二.AD/DA(模数/数模)转换器芯片——海外巨头垄断,5G赋能国内高端需求
三.电源管理芯片——海外巨头瓜分市场,国内企业布局分散
Part.4
芯片的发展趋势及国内企业的机会
本文转载自创业邦,仅供交流学习之用。如有任何疑问,敬请与我们联系info@gsi24.com。
推荐关注:今 日 芯 闻
微信号:todaysemi
百万半导体人睡前必读