随着人工智能技术的快速发展,要实现更高效、更人性化的AI,我们不仅需要架构和算法,还需要帮助AI成型的基石,那就是AI芯片。
作为人工智能运行的载体,AI芯片的发展无疑影响着人工智能技术的进步。
近日,华为AI战略全面披露,多款AI芯片正式亮相。
他们强大的表现让所有人惊叹的同时,也不禁让人好奇华为为何为此改变集团愿景。
为什么AI芯片如此受欢迎?在初始阶段,由于不需要考虑功耗等原因,人工智能芯片可以追求高算力、高并发、高吞吐量。
目前的解决方案一般都是以“GPU+CPU”的异构模式完成。
同时,该解决方案主要针对各大AI公司和实验室的培训环节。
由于目前市场AMD在这方面长期缺乏,深度学习GPU加速市场由NVIDIA主导。
但随着人工智能逐渐在云端应用,对AI芯片提出了更多要求。
在兼顾高性能的同时,还需要考虑功耗和响应时间。
作为半定制的专用集成电路FPGA(现场可编程门阵列),可以满足要求。
其特点是低能耗、低延迟、高吞吐量,可以满足人工智能在云端运行的需求。
目前,Xilinx和Altera在FPGA市场占据绝对垄断地位,市场份额接近90%。
未来,人工智能技术注定会进一步去中心化到终端设备。
由于物理限制,芯片的功耗、面积和成本需要进一步优化。
主要解决方案是独立ASIC和SoC+IP;独立的ASIC可以通过定制设计实现性能更好、保密性更强的芯片,但缺点是开发周期长、投资成本巨大,一般企业难以承受。
SoC+IP相对于ASIC的开发缺点有很大的优势,但缺点是其功能扩展性较弱。
华为此前发布的升腾系列AI芯片就是根据该方案开发的。
尽管ASIC存在各种开发难点,但作为专用集成电路,其在性能和功耗方面的优势是显而易见的。
在人工智能神经网络计算中,与传统计算存在一定的差异。
因此,在进行神经网络计算时,CPU、DSP、GPU在计算能力、性能、能效等方面都存在不足,因此出现了专门针对神经网络计算而设计的系统。
设计处理器或加速器要求。
由于ASIC是定制芯片,需要重新设计电路,生产难度很大。
目前,市场上人工智能ASIC领域的领导者是谷歌TPU。
其今年5月发布的第三代TPU处理器具有以下功能: 是第二代的两倍。
以手机为例。
智能手机等设备一般都具备GPU和CPU,可以为人工智能提供相应的算力支持。
那么为什么我们需要专门开发AI芯片来完成这项工作呢?这是一个简单的例子。
当你去普通的餐厅吃饭时,你可以选择多种菜系,可能会更美味。
不过,想要吃到正宗的菜肴,就得去专门的餐厅。
AI芯片也是如此。
虽然手机也会有GPU和CPU,但低功耗、轻量化、薄厚度才是他们追求的方向。
专用AI芯片可以实现最大效率和能力,且仅占用很小的空间并降低功耗。
同时,它不会占用过多的CPU和GPU资源,保证手机在运行人工智能的同时可以进行其他操作。
当然,AI芯片的重要性还不止于此。
以谷歌TPU1为例。
那么TPU1每秒的峰值计算次数约为90 Tops。
当然,这只是一个理论值。
由于数据传输、存储、提取等原因,往往达不到峰值速率。
然而,与普通的 GPU 和 CPU 方案进行训练相比,尤其是现在神经网络规模越来越大、参数越来越复杂的情况下,大规模 NN 模型的训练时间通常会持续数周甚至数月,而且各种意想不到的情况也会发生。
期间发生的情况。
会影响训练进度,比如停电等,有了TPU1,一顿饭就可以完成,效率大大提高。
AI芯片虽然名为AI,但其本质仍然是芯片。
经历了中美贸易战初期,国内企业已经认识到,没有自己的核心技术,再强也不过是海滩上的一堆雕塑,到时候就会被摧毁。
波浪来了。
面对国外企业对CPU、GPU的垄断,AI芯片成为国内厂商新的突破点。
目前,中国和美国在人工智能技术上基本处于同一起跑线,因此更有利于AI芯片的发展。
不过,芯片设计并不是一朝一夕的事情,我国的芯片制造能力也非常薄弱。
需要投入大量的人力和财力才能生产出有效的产品。
目前国内投入AI芯片研究的公司有寒武纪、华为海思、中兴微电子、阿里巴巴平头哥等,不少小公司也纷纷效仿,进入AI芯片领域。
这是因为AI芯片的生产与传统芯片不同。
不需要花费精力来生产IP核。
其他IP直接结合使用,并在架构层面进行优化,根据业务需求进行IP集成。
因此,生产门槛大大降低。
如上所述,SoC+IP的解决方案。
华为Ascend系列的推出,给国产AI芯片打了一针强心剂,极大地鼓舞了国内AI芯片相关制造企业。
不过值得注意的是,虽然华为推出了AI芯片,但其在手机上的应用仍然存在诸多局限性,且大多仅用于图像识别。
不仅华为如此,苹果、联发科也如此。
未来如何拓展AI更多应用,成为下一步的关键。