文章|玄创简介:过去六个月,人工智能发展重心逐渐从云端转向终端,伴随着新一代计算芯片产业的全面崛起。
时隔数月,智东西首次报道了包括AI芯片在内的新一代计算芯片全产业链的近百家核心企业,涵盖国内外主要巨头厂商、新兴初创企业、场景应用、代工生产等。
全面深入地跟踪报道芯片行业发展、创新创业。
这是智能物联网新一代计算芯片产业系列报告之一。
近来,在人工智能领域,无论是学术界还是业界领袖都在紧锣密鼓地从事类脑芯片的研究,当然也取得了不少成果。
近日,斯坦福大学研究院电子与微系统技术实验室的Jeehwan Kim教授在《自然》杂志上发表论文,引起产学研界的关注。
原因是 Jeehwan Kim 教授和研究人员使用一种名为硅锗的材料开发了一种人工突触芯片,可以支持识别手写字体的机器学习算法。
无独有偶,近期,中国科学院自动化研究所类脑智能研究中心类脑信息处理(BRAVE)研究组也在基于神经网络建模和类人学习研究方面取得了突破性研究成果。
生物神经结构。
自从计算机诞生以来,人们就不断要求提高其计算能力。
随着芯片集成度越来越高,CPU和内存之间的性能差距越来越大。
基于冯·诺依曼结构的计算机结构的缺点越来越明显。
有人称之为内存墙,意思是无论CPU有多快,它仍然要等待内存。
相比之下,人脑则没有这样的问题。
据研究,人脑平均每秒可进行1万亿次运算,仅需要10至25瓦的能量。
因此,研究人员开始转向模拟人脑的研究,试图模拟人脑的运行机制,让计算机能够低能耗、高效率地进行计算,甚至让计算机超越类人智能。
国内外许多公司和机构都投入大量精力进行类脑芯片的研发。
美国在这方面的研究起步较早。
2017年,IBM推出业界首款类脑芯片TrueNorth。
近年来,中国在芯片研发方面也不甘示弱。
还有西晶科技等初创公司致力于类脑芯片的研发。
清华大学等知名大学也成立了类脑研究中心。
与传统芯片相比,类脑芯片在功耗方面确实具有绝对优势。
以英特尔在本届CES上展出的自学习芯片Loihi为例。
其学习效率不仅比其他智能芯片高出10000倍,而且完成相同任务所消耗的能量是传统芯片的近两倍。
类脑芯片的集成度也非常高。
比如浙江大学推出的“达尔文”芯片,面积为25平方毫米,这意味着边长只有0.5厘米,但内部却可以容纳1万个晶体管。
随着行业对算力的要求越来越高,Feng的瓶颈会越来越明显。
颠覆传统架构的类脑芯片,为芯片行业打开了一扇新的大门。
1.传统芯片遇到冯诺依曼瓶颈。
模拟神经元已成为一种新想法。
现代计算机基本上基于冯·诺依曼结构。
它以同样的方式将程序和处理程序的数据存储在两个区域中,一个称为指令集,一个称为数据集。
计算机每次进行计算时,都需要在CPU和内存区域之间来回调用,从而在双方之间产生数据流量。
随着深度学习算法的出现,对芯片算力的要求不断提高,冯诺依曼瓶颈变得明显:当CPU需要对海量数据执行一些简单指令时,数据流会严重降低整体效率。
CPU。
在数据输入或输出期间将处于空闲状态。
不仅如此,传统芯片的一个大问题就是效率低下。
芯片工作时,大部分电能会转化为热能。
没有散??热器的电脑CPU产生的热量可以在短时间内自行融化。
其他智能设备也因芯片复杂而消耗过多能量,导致电池寿命不佳。
无论工艺如何改进,高温和泄漏都是不可避免的问题。
为了解决CPU在大量数据运算时效率低、能耗高的问题,目前有两种发展路线:一是继续采用传统的冯诺依曼架构,主要以三类芯片为代表: GPU、FPGA 和 ASIC;二是利用基于人脑神经元结构设计芯片来增强计算能力成为完全拟人化的目标,追求不断逼近人脑的芯片架构。
这种芯片被称为类脑芯片。
人脑神经元受到刺激后,细胞膜内外带电离子的分布会发生变化,从而形成电位差。
电位差会沿着神经细胞的轴突和树突双向传导,形成脉冲电流。
当电信号传递到突触时,突触前神经元会释放神经递质(如多巴胺、肾上腺素),突触后神经元接收神经递质产生兴奋(这一过程是单向传递)并发送给突触。
下传递效应与人体的反应器相互作用并发生反应。
类脑芯片架构模拟人脑的突触传递结构。
许多处理器类似于神经元,通信系统类似于神经纤维。
每个神经元的计算都是在本地执行的。
整体上,神经元以分布式方式工作,这意味着整体任务是划分的。
,每个神经元只负责部分计算。
该方法在处理海量数据时优势明显,并且比传统芯片功耗更低。
例如,IBM的TrueNorth芯片每平方厘米的功耗仅为20毫瓦。
2.虽然类脑芯片已经问世,但大规模商业化进展缓慢。
与依赖冯诺依曼结构的GPU、FPGA、ASIC相比,类脑芯片是相对处于概念阶段的集成电路。
目前可用的类脑芯片并不多,更不用说大规模商业化了。
为了保持技术优势,美国率先启动了类脑计算芯片的相关研究。
通过模仿人脑的工作原理,用神经元和突触取代传统的冯·诺依曼架构系统,使芯片能够进行异步、并行、低速处理。
对信息数据进行分布式处理,并具有自主感知、识别和学习的能力。
因此,市面上第一颗类脑芯片来自于美国的IBM。
1、IBM TrueNorth(SyNAPSE芯片) 2019年8月,IBM率先在类脑芯片方面取得进展。
他们基于模拟人脑结构,开发了两种具有感觉和认知功能的硅芯片原型。
不过,由于技术限制,IBM戏称第一代TrueNorth为“虫脑”。
第二代TrueNorth诞生于2016年,采用三星28nm工艺,总共使用了54亿个晶体管。
其性能较第一代有了很大的提升。
功耗仅为每平方厘米20毫瓦,是第一代的百分之一,直径只有几厘米,是第一代的十五分之一。
(IBM Truenorth芯片)每个核心简化了人脑的神经结构,包括一个“神经元”(处理器)、一个“轴突”(记忆)和0个突触(神经元与轴突之间的连接)。
沟通)。
总体而言,TrueNorth芯片集成了1个核心、1万个“神经元”和2.56亿个“突触”。
此外,不同的芯片还可以通过阵列互连。
IBM表示,如果48个TrueNorth芯片组成一个拥有10000个神经元的网络,这48个芯片带来的智能水平将与普通鼠标相似。
自2018年首次亮相以来,这款芯片一直没有大动作。
不久前,TrueNorth终于有了新进展。
据报道,IBM即将开发一款由64个“TrueNorth”类脑芯片驱动的新型超级计算机。
该计算机可以对大规模深度神经网络进行实时分析,可用于区分高速空中的真假目标,而且其功耗比传统计算机芯片低4个数量级。
如果系统的功耗能够达到人脑的水平,理论上可以在64芯片原型的基础上进一步扩展,能够同时处理任意数量的实时识别任务。
2、英特尔Loihi芯片(英特尔神经拟态芯片Loihi) 日前在CES上,芯片巨头英特尔展示了旗下首款自学习神经元芯片Loihi。
去年9月,英特尔宣布花了十年时间研究和设计这款芯片。
原型。
Loihi芯片可以像人脑一样通过脉冲或尖峰传输信息,并自动调整突触强度。
它可以通过环境中的各种反馈信息自主学习并发出指令。
据英特尔介绍,Loihi包含一个计算核心,每个核心集成了一个人工神经元,共有13.1万个神经元通过1.3亿个突触相互连接。
与人脑数十亿个神经元相比,英特尔芯片的计算规模只比虾脑大一点点。
但根据英特尔提供的数据,Loihi的学习效率比其他智能芯片高出10000倍,完成相同任务所消耗的能源可节省近两倍。
3.高通Zeroth芯片芯片巨头高通也在开发类脑芯片。
早在2018年,高通就发布了一款名为Zeroth的芯片。
Zeroth不需要通过大量代码预先编程行为和结果,而是通过类似的学习是通过神经递质多巴胺(也称为“正强化”)来完成的。
为了让搭载这款芯片的设备能够随时自我学习并获取周围环境的反馈,高通还为此开发了一套软件工具。
在公布的信息中,高通还演示了使用装载该芯片的机器人汽车,让汽车在受人脑启发的算法下完成寻路、避障等任务。
国内类脑芯片的研究也已经开始。
除了清华大学等知名大学开设研究院外,还有专注于类脑芯片研发的初创企业。
代表企业有上海西井科技等。
4、西井科技深南芯片西井科技是国内一家研究类脑强人工智能的公司。
目前,Westwell已推出自主研发的1亿神经元规模的人脑模拟模拟器(Westwell Brain)和商业化的万江大脑。
神经元芯片(DeepSouth)两款产品。
DeepSouth是一款商用芯片,可以模拟多达10,000级“神经元”,总共超过50亿个“神经突触”。
据西京CEO谭利民介绍,该芯片除了具备“实时自我学习、自我完善”的能力外,还可以直接在芯片上完成计算,无需通过网络连接后端服务器,即可使用在“无网络”的情况下。
在能耗方面,深南完成相同任务的功耗仅为传统芯片的十分之几到百分之几。
5、浙江大学“达尔文”类脑芯片(浙江大学与杭州电子科技大学联合研发的“达尔文”芯片) 2016年,浙江大学与杭州电子科技大学的一批青年科研人员研发出类脑芯片。
就像后来成为达尔文的芯片一样。
该芯片是国内首款基于硅材料的脉冲神经网络类脑芯片。
“达尔文”芯片面积为25平方毫米,比1元硬币还小,内含1万个晶体管。
芯片上集成了硅仿生神经元,可支持超过 10,000 个突触和 15 种不同的突触延迟。
据研发团队介绍,这款芯片可以接收并积累外界的刺激,并产生脉冲(电信号)进行信息处理和传输,就像我们前面提到的人类神经元之间的信息传输一样。
研发人员还为“达尔文”开发了两款简单的智能应用。
首先,这款芯片可以识别不同人手写的1-10这10个数字。
其次,“达尔文”接受人脑电脑后,可以在电脑屏幕上控制篮球的运动方向。
在熟悉并学习了操作者的脑电波后,“达尔文”在后续受到同样的刺激时也会做出同样的反应。
6、AI-CTX芯片 此外,国内也出现了一些小型的类脑芯片研究团队,比如AI-CTX团队。
据称,他们目前已经设计出了类脑芯片模型。
每个神经元不仅具有与人脑神经元相似的电特性和动态参数,而且还具有简单的计算和存储功能。
他们还采用了特殊的布线方法,让芯片之间的通信突破了物理限制,从而增加了芯片组原有的网络。
该芯片不适合处理静态硬盘数据,但擅长处理温度、气压、人体信号、物联网等包含时间参数的数据。
虽然目前市面上有几款类脑芯片,它们的计算能力不如传统架构芯片快。
为了提高计算机对大规模数据的计算效率,现在芯片公司最常见的做法是使用GPU、FPGA、ASIC三类芯片,它们基于传统芯片架构,配备人工神经网络在功能上模拟人脑计算。
脑芯片,又称AI芯片。
智东西利用过去的一年时间,深入芯片产业链上下游,走访各大AI芯片企业和初创公司,并进行详细报道。
深度企业研究涉及英伟达、谷歌、联发科等。
3、类脑计算成为新方向。
人脑的这三大特点始终是计算机无法比拟的:一是能耗低,人脑的功率约为20瓦,而目前的计算机功耗需要几百万瓦;第二,容错性,人脑无时无刻不在失去神经元,计算机中失去一个晶体管就会毁掉整个处理器;第三,不需要编程,大脑在与外界的交互过程中自发地学习和改变,而不是遵循预先设计的算法。
中国也高度重视类脑研究,将类脑计算作为国家战略发展的制高点。
2016年,我国不仅将脑计划列为国家“十三五”重大科技专项,还发布了脑计划“一体两翼”总体战略:一体即理解大脑:重点阐明人类认知的神经基础和核心;两个翅膀分别是保护大脑:预防、诊断和治疗重大脑部疾病和模拟大脑:类脑计算。
我国学术界也开展了类脑智能的研究。
2017年,中国科学院、清华大学、北京大学先后成立“脑科学与类脑智能研究中心”。
5月,类脑智能技术及应用国家工程实验室在合肥成立。
。
这些实验室将借鉴人脑机制研究人工智能技术,推动类脑神经芯片、类脑智能机器人等新兴产业发展。
结论:类脑芯片可能赋予机器智能。
目前,搭载神经网络引擎的芯片层出不穷。
芯片巨头和初创公司竞相利用神经网络在原有冯诺依曼架构的基础上优化芯片算力。
从目前此类AI芯片的表现来看,FPGA灵活性较好,但开发难度较大。
ASIC因其功耗低、开发难度适中,在终端AI芯片中将具有更大的优势。
类脑芯片不仅可以提高计算机的运算速度、降低功耗,还将在国防领域发挥重要作用。
它们对于发展高度自主的智能机器人以及提高其他设备的智能化水平也具有重要意义。
就人工智能的终极理想,即让机器实现智能而言,从人类的结构出发是一种可选的想法,但不是唯一的想法。
从目前各大公司的研究成果来看,像IBM TrueNorth这样的类脑芯片的效率并不如上述在传统架构上使用神经网络的芯片。
然而,冯·诺依曼瓶颈是客观事实。
随着计算数据量的增加,这个缺点会越来越明显。
人脑以其低功耗、高运算能力确实成为了计算机芯片的研发方向。
不过,类脑芯片短期内很难展现出优势。
或许随着对人脑研究的深入,会有人像牛顿一样。
“上帝的苹果”已经击中目标,为高速算力类脑芯片领域奠定了垫脚石。
或许现在的传统架构加神经网络芯片适合大数据量的计算,就像牛顿万有引力定律,而类脑芯片更有潜力实现机器智能,就像爱因斯坦的相对论。