指令集就能赚钱 寒武纪NPU拟流片商用
2017-05-02 来源:DIGITIMES
芯片是战略要地。目前GPU芯片在深度神经网络训练领域获得大范围的应用,但受制于功耗、应用优化性等方面的限制,仍有众多的巨头和初创公司在该领域积极探索,英特尔2016年发布Nervana AI处理器,可加速各类神经网络。谷歌2016年也发布了自己的ASIC芯片TPU,用于加速深度神经网络,微软、AMD、百度等也相继加入战局。
寒武纪研发了国际首个深度学习专用处理器芯片(NPU),目前其IP指令集,已扩大范围授权集成到手机、安防、可穿戴设备等终端芯片中,2016年就已拿到1个亿元订单。
执行董事罗韬26日表示,目前寒武纪深度学习处理器,若以阶段性论,还处于相当于“ARM”的授权阶段,未来一年内,将推出芯片问世,并拟与台积电先进工艺制程展开合作。
寒武纪之所以想要开发一款专用的深度学习处理器,因为有必要有专门的深度学习处理处,来提升效能与克服降低功耗。通用芯片与专用芯片相比,就像是一把万能的瑞士军刀与菜刀之比,想要切菜得好,必须有专用的菜刀堪用。而深度学习是处理智能应用迄今最好的方法。
罗韬表示,AI已经在很多领域超越了人脑。但是传统的CPU/GPU处理深度学习效率低下,他举例,AlphaGo使用上千个CPU和数百个GPU,下一盘棋的电费就高达3000美元,相当耗能。
而寒武纪的目标,据称,是要让1瓦以内功耗的摄像头、手机、甚至手表都能和AlphaGo一样“聪明”。
光靠NPU指令集就已赚钱
他也分享目前寒武纪的近況。就在2016年国际计算机体系结构年会中,约有1/6的论文都引用寒武纪开展神经网络处理器研究。
目前寒武纪设立了三条产品线:首先是智能终端处理器IP授权,智能IP指令集可授权集成到手机、安防、可穿戴设备等终端芯片中,客户包括国内顶尖SoC厂商,目前已经开始投入市场。而2016年全年就已拿到1个亿元订单。这也使得寒武纪研发了国际首个深度学习专用处理器芯片,于2016年第一年成立,就实现盈利。
其次,在智能云服务器芯片领域:作为PCIE加速卡插在云服务器上,客户主要是国内的知名服务器厂商。
另外,家用智能服务机器人芯片:从智能玩具、智能助手入手,使服务机器人独立具备看听说的能力。客户是各类下游机器人厂商,产品的推出将比智能云服务器芯片更晚一些。
日前中科院还注资1000万元,这1000万元专项资金一方面用于人工智能芯片的基础性研究,探索下一代人工智能芯片的架构、算法以及在一些新型场景(如AR/VR)中的应用开发方法。
下一阶段重点 流片商用问世
据指出,DianNao是寒武纪系列的第一个原型处理器结构,平均性能超过主流CPU核的100倍,但面积和功耗仅为1/10,效能提升可达三个数量级。
寒武纪处理器能直接面对大规模神经元和突触处理,一条指令完成一组神经元处理,相比传统执行x86指令集的芯片,有数量级的性能提升,未来在云服务器和智能终端上的图像识别、语音识别、人脸识别等方面有着较广应用前景。
而迈入下一个阶段,寒武纪从IP指令集授权,到推出商用芯片问世,预料是目前紧锣密鼓筹备的重点。
相关人士也指出,寒武纪目前锁定与台积电最先进的工艺制程合作,其中对其量产成熟的14纳米工艺很有兴趣。预期最快一年后流片。
行业人士还指出,国内现在高端芯片设计领域的实力已经提升,但是国内晶圆代工厂的工艺制程还没跟上节奏,包括展讯14纳米找英特尔代工、兆芯14纳米CPU也都选择与台积电合作。
相关人士表示,目前看国内芯片厂的技术节点仍落于国外两到三个世代,在28纳米工艺制程还未站稳脚跟的当下,在国内选择综合考量上,高端芯片会多倾向以选择台积电、GLOBALFOUNDRIES为主,而台积电则又较具两岸优势。
下一篇:台媒报道紫光对台发动新一波挖角
- ASML在2024 年投资者日会议上就市场机遇提供最新看法
- 消息称内存原厂考虑 HBM4 采用无助焊剂键合,进一步降低层间间隙
- 英特尔中国正式发布2023-2024企业社会责任报告
- 贸泽电子与Analog Devices联手推出新电子书
- AMD 推出第二代 Versal Premium 系列:FPGA 行业首发支持 CXL 3.1 和 PCIe Gen 6
- SEMI:2024Q3 全球硅晶圆出货面积同比增长 6.8%、环比增长 5.9%
- 台积电5nm和3nm供应达到"100%利用率" 显示其对市场的主导地位
- LG Display 成功开发出全球首款可扩展 50% 的可拉伸显示屏
- 英飞凌2024财年第四季度营收和利润均有增长; 2025财年市场疲软,预期有所降低