Select Language

AI社区

数据要素产业

AI 芯片和传统芯片有何区别?

12-06 09:11 TAG: 芯片 传统 有何 区别

什么是AI芯片

当前AI芯片设计方案繁多,包括但不限于GPU/FPGA/ASIC/DSP等。目前市场上的对于AI芯片并无明确统一的定义,广义上所有面向人工智能(Artificial Intelligence,AI),包括Training(训练)和Inference(推理)应用的芯片都可以被称为AI芯片。[1]

Intel Nervana 来源:https://www.eetimes.com/ai-silicon-preps-for-2018-debuts/

不同IC设计公司推出的应用于不同场景的AI芯片名字也各不相同,比如寒武纪的NPU(Neural-network Processing Unit),地平线的BPU(Brain Processing Unit),天数的GPGPU等。

当前AI运算指以“深度学习” 为代表的神经网络算法,需要系统能够高效处理大量非结构化数据(文本、视频、图 像、语音等)。这需要硬件具有高效的线性代数运算能力,计算任务具有:单位计算任务简单,逻辑控制难度要求低,但并行运算量大、参数多的特点。对于芯片的多核并行运算、片上存储、带宽、低延时的访存等提出了较高的需求。

针对不同应用场景,AI芯片还应满足:对主流AI算法框架兼容、可编程、可拓展、低功耗、体积及造价等需求。

AI芯片产品定位

目前来看,AI芯片并不能取代CPU的位置,正如GPU作为专用图像处理器与CPU的共生关系,AI芯片将会作为CPU的AI运 算协处理器,专门处理AI应用所需要的大并行矩阵计算需求,而CPU作为核心逻辑处理器,统一进行任务调度。 在服务器产品中,AI芯片被设计成计算板卡,通过主板上的PCIE接口与CPU相连;而在终端设备中,由于面积、功耗成本 等条件限制,AI芯片需要以IP形式被整合进SoC系统级芯片,主要实现终端对计算力要求较低的AI推断任务。

AI芯片对CPU并非替代,而是与CPU共同满足新时代计算需求。

来源:英伟达官网

AI芯片应用场景

应用场景1:自动驾驶

自动驾驶汽车将改变我们生活、工作以及娱乐的方式,创造更安全和更高效的道路运输。为实现这些革命性的优势,未来汽车将需要强大的算力支撑。

根据美国汽车工程师协会(SAE)将自动驾驶按照车辆行驶对于系统依赖程度分为L0~L5六个级别,L0为车辆行驶完全依 赖驾驶员操纵,L3级以上系统即可在特定情况下实现驾驶员脱手操作,而L5级则是在全场景下车辆行驶完全实现对系统的 依赖。

自动驾驶汽车计算单元设计需要考虑算力、功耗体积等问题,出于硬件资源最优化应用,往往 采取异构计算平台设计方案,及“CPU+XPU”(XPU包括:DSP/GPU/FPGA/ASIC),其中可采取DSP用于图像特征提 取任务、GPU/FPGA/ASIC等计算单元用于目标识别、追踪任务等,而CPU则会用于定位、决策等逻辑运算任务。

来源:英伟达官网

应用场景2:移动互联网市场

目前,智能手机市场的竞争越来越激烈,各厂商加大手机AI 功能的开发,通过在手机SoC芯片中植入AI芯片实现在低功耗情况下AI功能的高效运行。

移动端AI芯片市场不止于智能手机,潜在市场还包括:智能手环/手表、VR/AR眼镜等市常AI芯片在图像及语音方面的能力可能会带来未来人机交 互方式的改变并进一步提升显示屏、摄像头的能力,有可能在未来改变移动端产品。

图片来源:艾瑞研究院

应用场景3:云计算、边缘计算

边缘计算(Edge Computing)是由云计算延伸发展出来的概念。边缘计算是5G网络架构中的核心环节,是指在靠近物或数据源头的网络边缘侧,融合网络、计算、存储、应用等核心能力的分布式开放平台。

边缘计算可以作为联接物理和数字世界的桥梁,使能智能资产、智能网关、智能系统和智能服务。典型应用场景包括5G应用、AR/VR、无人机、医疗保健和智能交通等。

边缘计算与云计算协同架构图,来源:工业互联网产业联盟。

其余应用场景还包括智能安防,智能零售,智能家居等。

来源网络,侵删

目前,AI芯片发展速度虽然很快,但是现在的人工智能新算法也是层出不穷的,这样一来就没有一个具体的标准,也没有对相应的规格进行固定。

从芯片发展的大趋势来看,现在还是AI芯片的初级阶段。无论是科研还是产业应用都有巨大的创新空间。从确定算法、应用场景的AI加速芯片向具备更高灵活性、适应性的通用智能芯片发展是技术发展的必然方向。

参考:艾瑞咨询 2019 AI芯片行业研究报告