【.com快译】业内专家指出,许多智能设备和物联网设备都由某种形式的人工智能(AI)提供动力——无论是语音助手、面部识别摄像头,或者电脑。这些设备需要某种技术来支持它们进行的数据处理。一些设备需要在云平台上的大型数据中心处理数据,而另一些则由自己的人工智能芯片处理。那么什么是AI芯片呢?它与人们在智能设备中发现的其他芯片有何不同?下面将重点介绍AI芯片的重要性、用于不同应用的不同种类的AI芯片,以及它们在设备中的使用方式。人工智能芯片的好处。一、为什么有些芯片不适合人工智能计算机技术在80年代开始兴起。这种技术扩展是由CPU(中央处理单元)实现的,它执行程序中指令指定的基本算术、逻辑、控制和输入/输出操作。CPU是计算机的大脑。英特尔公司和AMD公司是全球CPU行业的行业巨头。说到CPU的演进,就不得不提ARM,其芯片架构始于1980年代推出的计算机,但直到移动计算、智能手机和平板电脑兴起后才成为市场领导者。到2005年,98%的手机至少使用了某种形式的ARM架构。到2013年,全球生产了100亿部采用ARM芯片的手机,目前全球近60%的移动设备都搭载了ARM芯片。ARM已经成为人工智能芯片领域的重要组成部分。在1990年代,实时3D图形在街机、计算机和游戏机中变得更加普遍,这导致对硬件加速3D图形的需求不断增加。另一家硬件巨头NVIDIA通过专用于计算机图形和图像处理的图形处理单元(GPU)满足了这一需求。NVIDIA最近宣布以400亿美元收购ARM。2.人工智能处理单元在人工智能处理方面,虽然GPU的性能通常优于CPU,但也并非十全十美。该行业需要专用处理器来高效处理AI应用程序、建模和推理。因此,芯片设计人员现在正致力于创建为执行这些算法而优化的处理单元。这些单元有很多名称,例如NPU、TPU、DPU、SPU等,但可以使用人工智能处理单元(AIPU)的总称来概括。创建AIPU是为了执行机器学习算法,通常是在人工神经网络等预测模型上运行。由于这些过程通常是独立执行的,因此通常将它们归类为训练或推理。在现实世界中已经看到了一些应用:监控系统或抵御网络攻击威胁的领域,例如涉及实时面部识别的安全系统(IP摄像机和门禁摄像机等)。与客户互动的零售业或企业聊天机器人。语音助手的自然语言处理。3.AI处理器和GPU有人可能会问GPU是否已经具备执行AI模型的能力?事实上,GPU确实具有一些有助于处理AI模型的特性。GPU可以处理2D甚至3D图形,所以需要同时并行处理多个函数串。AI神经网络也需要并行处理,因为它们的节点分支很像动物大脑中的神经元。GPU在这方面做得很好。然而,神经网络需要卷积,而这正是GPU难以解决的问题。简而言之,GPU从根本上是针对图形而不是神经网络进行优化的,它们充其量只是一种替代品。另一个需要考虑的重要因素是当前人工智能技术的加速发展。世界各地的研究人员和计算机科学家正在以指数级的速度不断提高人工智能和机器学习的能力,而CPU和GPU的进步已经超过了这些技术。根据摩尔定律,集成电路(IC)中的晶体管数量大约每两年翻一番。然而,摩尔定律正在逐渐消亡,已经跟不上人工智能技术发展的步伐。人工智能的加速最终还是要依靠专门的人工智能加速器,比如AIPU。AIPU通常用于以下用途:与GPU相比,机器学习任务的计算速度提升了近10,000倍。低功耗,提高资源利用率。4.AISoC的组件虽然AIPU构成了人工智能片上系统(SoC)的大脑,但它只是构成芯片的一系列复杂组件中的一部分。下面分解AISoC,与AIPU配对的组件,以及它们如何协同工作。1.NPU上文提到,这是执行AISoC核心运算的神经处理单元或矩阵乘法引擎,需要指出的是,对于人工智能芯片厂商来说,这也是让任何AISoC从所有其他AISoC中脱颖而出必不可少的。2.控制器控制器通常基于RISC-V(由UCBerkeley设计)、ARM(由ARM公司设计)或自定义逻辑指令集架构(ISA),它控制所有其他块和外部处理器并与沟通。控制是否是本地的是一个需要回答的主要问题,“为什么要创建这个芯片?它在哪里使用?由谁来控制?”,芯片制造商需要先回答哪些问题才能回答控制问题。3.SRAM这是用于存储模型或输出的本地内存。把它想象成一台冰箱,尽管存储空间很小,但它可以非常快速和轻松地获取东西(在这种情况下是数据)或将它们放回原处。在一些用例中,尤其是与边缘人工智能相关的用例中,处理速度非常关键,比如路上突然出现行人,自动驾驶汽车必须及时刹车。芯片包含多少SRAM取决于成本和性能。更大的SRAM内存池会增加前期成本,但访问DRAM的次数会减少,因此从长远来看,它会收回成本。另一方面,较小的SRAM内存池具有较低的前期成本,但需要更多的DRAM内存。但如果市场需要针对特定??用例的低成本芯片,则可能需要降低成本。处理速度也是较大的SRAM内存池和较小的SRAM内存池之间的差异,就像内存会影响计算机的性能和满足性能需求的能力一样。4.I/O这些块用于将SoC连接到SoC外部的组件,例如DRAM和外部处理器。这些接口对于AISoC最大化其潜在性能和应用程序至关重要,否则会造成瓶颈。因此,接口及其连接的对象(DRAM、外部处理器等)需要揭示AISoC的潜在性能。例如,DDR是DRAM的接口。因此,如果您将SRAM视为冰箱,则可以将DRAM视为杂货店。它有更多的存储空间,但需要更多的时间来检索项目。五、互连结构互连结构是处理器(AIPU、控制器)和SoC上所有其他模块之间的连接。与I/O一样,互连结构对于提取AISoC的所有性能至关重要。通常,这只有在芯片内部无法识别互连结构时才会实现。无论处理器有多快,这些创新只有在互连结构能够跟上而不会造成阻碍整体性能的延迟的情况下才能发挥作用,就像高速公路上没有足够的车道在高峰时段造成交通拥堵一样。所有这些组件都是人工智能芯片的关键部分。虽然不同的芯片可能有额外的组件,或者对这些组件的投资优先级不同,但这些基本组件以共生的方式协同工作,以确保AI芯片能够快速高效地处理AI模型。与CPU和GPU不同,AISoC的设计远未成熟。这部分行业正在持续快速发展,人们将看到AISoC设计的进步。6.人工智能芯片及其用例市场上的人工智能芯片很多,这些芯片的命名取决于设计公司。这些芯片在使用的模型和它们旨在加速的实际应用中都有不同的用例。1.训练与推理人工智能本质上是利用人工神经网络对人脑进行模拟,旨在替代人脑中的生物神经网络。神经网络由大量节点组成,可以调用这些节点来执行模型。这就是人工智能芯片发挥作用的地方。AI芯片特别擅长处理这些人工神经网络,并且被设计用来用它们做两件事:训练和推理。原始神经网络最初是通过提供大量数据来开发和训练的。训练是计算密集型的,需要以训练为中心的人工智能芯片,旨在能够快速有效地处理这些数据。芯片越强大,网络学习的速度就越快。一旦网络经过训练,它就需要设计用于推理的芯片,以使用现实世界中的数据,例如面部识别、手势识别、自然语言处理、图像搜索、垃圾邮件过滤等。将训练视为构建字典,而推理就像查找单词并了解如何使用它们。两者都是必要的和共生的。值得注意的是,为训练设计的芯片也可以进行推理,但推理芯片不能进行训练。2.CloudComputingvs.EdgeComputing人们需要知道的AI芯片的另一个方面是它是为云计算用例还是边缘计算用例设计的,以及对于这些用例,人们是否需要采用推理芯片或训练芯片。云计算的可访问性非常有用,因为它的功能可以完全在异地使用。在这些用例中不需要设备上的硅来处理推理,从而节省了功率和成本。然而,在隐私和安全方面也存在缺点,因为数据存储在云计算服务器上,可能会被黑客入侵或处理不当。它对于推理用例的效率也可能较低,因为它不像边缘计算芯片那样专业。在面部识别相机等设备上可以找到在边缘进行处理的芯片。它们比云端更私密、更安全,因为所有数据都存储在设备上,而且其芯片通常是专门设计的。例如,面部识别相机将使用擅长运行专为面部识别设计的模型的芯片。它们也有缺点,因为向设备添加另一个芯片会增加成本和功耗。使用平衡成本和功耗的边缘AI芯片非常重要,以确保设备对用户来说不会太贵,也不会太耗电。应用程序和芯片通过以下方式配对:3.云计算+训练这种配对的目的是开发用于推理的AI模型。这些模型最终被细化为特定用例的AI应用程序。这些芯片功能强大,运行成本高,并且旨在尽可能快地进行训练。其系统的示例包括NVIDIA的DGX-2系统,该系统总共具有2petaFLOPS的处理能力。它由16个NVIDIAV100TensorCoreGPU组成。另一个例子是IntelHabana的Gaudi芯片。人们每天接触到的训练密集型应用程序的例子包括Facebook照片或谷歌翻译。随着这些模型越来越复杂,云计算和培训市场将继续受到需求和关注。4.云计算+推理这种配对的目的是推理需要如此强大的处理能力,以至于无法在设备上完成。这是因为应用程序使用更大的模型并处理大量数据。其芯片的例子包括高通公司的CloudAI100,这是一种用于大型云平台的人工智能芯片。另一个例子是阿里巴巴的煌光800或Graphcore的ColossusMK2GC200IPU。训练芯片用于训练Facebook照片或谷歌翻译,云计算推理芯片用于处理输入数据。其他示例包括AI聊天机器人或大型科技公司运营的大多数AI服务。5.边缘计算+推理使用边缘计算设备的芯片进行推理,可以消除网络不稳定或延迟等问题,更好地保护所使用数据的隐私和安全。使用上传大量数据(尤其是图像或视频等视觉数据)所需的带宽没有任何成本,因此只要成本和能源效率平衡,它就可以比云计算+推理更便宜、更高效。这里的例子包括Kneron的芯片,包括KL520和最近推出的KL720,它们是专为设备上使用而设计的低功耗、低成本芯片。其他示例包括英特尔Movidius和谷歌的CoralTPU。用例包括用于监控摄像头的面部识别、用于行人和危险检测的车载摄像头,以及用于语音助手的自然语言处理。这些不同类型的芯片及其不同的实现、模型和用例对于未来人工智能的发展至关重要。在5G等新兴技术的支持下,人工智能正迅速成为人们工作和生活中的重要组成部分。为了适应人们对技术日益增长的依赖,人工智能芯片领域将发展非常迅速。原标题:什么是AI芯片?你需要知道的一切,作者:AlbertLiu
