芯片作为产业链技术要求最高的环节之一,往往是最难攻克的阵地。2016年,我们谈中国集成电路在芯片环节还比较薄弱;2017上半年,我们说我国与美国的差距主要在硬件方面,尤其是芯片环节;2017下半年及2018年,我们看到一批本土AI芯发布,很多还带有“首款”的荣誉称号,首款嵌入式AI芯、首款人脸识别AI芯、首款AI移动芯片等等。
似乎,集成电路最难攻克的环节——芯片,在AI大环境下,一切都变得那么EASY。这是真的吗?
AI芯定义
广义上讲,可以运行AI算法的都可以称为AI芯片,只不过效率有高有低;狭义上说,针对AI算法专门做了特殊加速设计的芯片才是AI芯片。
AI芯的硬件核心
AI芯的核心就是神经网络加速器,或者叫深度学习加速器。
AI芯分类
芯片架构,四大类芯片
通用类芯片,代表如CPU、GPU、FPGA;
基于FPGA的半定制化芯片,代表如深鉴科技DPU、百度XPU等;
全定制化ASIC芯片,代表如TPU、寒武纪 Cambricon-1A等;
类脑计算芯片,代表如IBM TrueNorth、westwell、高通Zeroth等。
功能,训练( Training)与推理(Inference)
训练(Training):通常需要通过大量的数据输入,或采取增强学习等非监督学习方法,训练出一个复杂的深度神经网络模型。
该过程对处理器的计算能力、精度、可扩展性等性能要求很高,能胜任此环节工作的芯片有英伟达的GPU集群与Google TPU2.0。
推理(Inference):利用训练好的模型,使用新的数据去“推理”出各种结论。
相比训练过程,推理的计算量像是个“小儿科”,尽管如此,但此过程也涉及大量的矩阵运算。GPU、FPGA和ASIC在此过程发挥作用。
GPU赢过CPU就是因为GPU比CPU专用。GPU借助在深度学习方面的优势,成为最有竞争力的AI芯片;CPU通用性强,适用于串行计算,对于AI算力而言,较缓慢。当然,CPU与GPU都不是发展AI最专用的芯片。
2017年12月,IBM推出首个为AI而生的服务器CPU POWER9,旨在为数据密集型人工智能工作负载管理自由流动数据、流传感器及算法。该处理器采用14纳米技术,嵌入80亿个晶体管。
POWER9试图通过最新的技术和联盟来解决系统短板——异构处理器是否有足够的带宽与系统的其它部分进行通信。
从通用CPU到AI定制CPU,POWER9代表了CPU行业在AI领域的发展趋势。
对于云端AI芯片市场,小公司只能觊觎,这是一场属于寥寥可数大公司的权利游戏,云端发展不只需要有高运算力的芯片,还得营造出生态系,基本上供应商就是这几家巨头。但对于终端市场,能实现更小功耗、更低成本的xPU与ASIC将成为主流。这就注定通用AI芯向专用AI芯发展的趋势。