新的人工神经元设备可以使用很少的能量运行神经网络计算汽车导航有一天可能需要更少的计算能力和硬件。该设备运行神经网络计算所需的能量和面积比现有的基于CMOS的硬件少100到1,000倍。研究人员最近在《自然-纳米技术》发表的一篇论文中报告了他们的工作。神经网络是一系列连接的人工神经元层,其中一层的输出为下一层提供输入。生成此输入是通过应用称为非线性激活函数的数学计算来完成的。这是运行神经网络的关键部分。但是应用这个功能需要大量的计算能力和电路,因为它涉及在两个独立的单元——内存和外部处理器之间来回传输数据。现在,加州大学圣地亚哥分校的研究人员开发了一种单一的纳米级人工神经元设备,该设备以非常节省面积和能源的方式在硬件中实现这些计算。由Kuzum和她的博士生SangheonOh领导的这项新研究是与能源部能源前沿研究中心合作进行的,该中心由加州大学圣地亚哥分校物理学教授IvanSchuller领导,专注于开发用于节能人工神经网络的硬件网络实现。该设备实现了神经网络训练中最常用的激活函数之一,称为整流线性单元。这个功能的特别之处在于,它需要硬件可以逐渐改变电阻来发挥作用,它可以从绝缘状态逐渐切换到导电状态,并且需要一点热量来实现。这种转变就是所谓的莫特转变。它出现在纳米级的二氧化钒薄层中。在这一层的顶部是一个由钛和金制成的纳米线加热器。当电流流过纳米线时,二氧化钒层会缓慢升温,从而导致从绝缘到导电的缓慢、可控的切换。这个装置结构很有意思,很有新意。通常,莫特转变中的材料会突然从绝缘变为导电,因为电流直接流过该材料。在这种情况下,研究人员让电流通过材料顶部的纳米线对其进行加热,并诱导电阻发生非常缓慢的变化。为了实现该设备,研究人员首先制造了一系列这些所谓的激活(或神经元)设备,以及一系列突触设备。然后,他们将这两个阵列集成到定制的印刷电路板上,并将它们连接在一起以创建神经网络的硬件版本。研究人员使用该网络处理图像,例如来自加州大学圣地亚哥分校盖瑟图书馆的照片。该网络执行一种称为边缘检测的图像处理,它可以识别图像中对象的轮廓或边缘。该实验表明,集成硬件系统可以执行卷积运算,这对于许多类型的深度神经网络都是必不可少的。研究人员表示,该技术可以进一步扩大到更复杂的任务,例如自动驾驶汽车的面部和物体识别。
