当前位置: 首页 > 科技观察

第一的!带有可编程忆阻器的计算机诞生了!

时间:2023-03-23 01:59:27 科技观察

人类历史上,第一台可编程忆阻计算机诞生了。它不再需要将语音指令发送到云端进行解读,可以通过AI处理器直接在智能手机上完成,大大加快了响应时间。在一些更注重隐私的场景下,比如医疗设备,具有更好的安全性和隐私性。  你有没有想过,未来智能手机有可能直接处理复杂的人工智能任务?关键就在里面:人类历史上第一台可编程忆阻器计算机。  超过由外部计算机操作的忆阻器阵列,这种由密歇根大学开发的可编程忆阻器计算机可以直接在智能手机和传感器等能源受限的小型设备上处理人工智能任务。  也就是说,未来不再需要将语音指令发送到云端进行解读,直接在智能手机上通过AI处理器即可完成,大大加快了响应时间.在一些更注重隐私的场景下,比如医疗设备,可以实现更好的安全性和隐私性。  人工智能强大的计算能力带来的负面影响之一就是巨大的能源消耗。每个人都想在他们的智能手机中安装AI处理器,但您不想每天为手机充电12次。  为什么忆阻器对机器学习有好处  这里指的高级计算机组件是忆阻器,具有记忆的电阻器,可变电阻,可以用作信息存储。  因为忆阻器在同一个地方存储和处理信息,所以可以解决计算速度和功耗的杀手——内存和处理器的连接。  这对于处理大量数据的机器学习算法尤其重要,例如识别照片和视频中的对象,或预测哪些医院患者感染的风险更高。  如今,程序员习惯于在图形处理单元(GPU)而不是CPU上运行这些算法。  “GPU,定制优化的数字电路,被认为在功率和吞吐量方面比CPU好10到100倍,”Lu说。“忆阻器AI处理器的性能可能提高10到100倍。”  GPU擅长机器学习任务,因为它们有数千个可以同时运行计算的微型内核。忆阻器阵列更进一步,每个忆阻器都能够独立执行计算,在单个内核中同时执行数千个操作。  本实验所用的电脑有5800多个忆阻器。出于商业目的,它可能包括数百万。  忆阻器阵列特别适合解决机器学习任务,因为机器学习算法将数据转换为向量。例如,当预测患者在医院的感染风险时,向量可以用数字表示列出具有感染风险的因素。  机器学习算法然后将这些“输入”向量与内存中的“特征”向量进行比较。如果匹配,系统就知道输入数据具有该特征。矢量存储在矩阵中,类似于数学电子表格,这些矩阵可以直接映射到忆阻器阵列。  更重要的是,当数据通过阵列反馈时,大部分数学处理都是通过忆阻器中的自然电阻进行的,从而消除了将特征向量移入和移出内存所产生的额外计算。这使得数组在复杂矩阵计算中非常有效。  早期的研究表明忆阻器阵列具有加速机器学习的潜力,但它们需要外部计算元件才能发挥作用。  构建可编程忆阻器计算机  为了构建第一台可编程忆阻器计算机,Lu的团队与密歇根大学电气与计算机工程副教授ZhengyaZhang和电气与计算机工程教授MichaelFlynn合作设计将忆阻器阵列与编程和操作所需的所有其他元素集成在一起的芯片。  这些组件包括传统的数字处理器和通信通道,以及充当模拟忆阻器阵列和计算机其余部分之间的解释器的数字/模拟转换器。  Lu的团队随后在密歇根大学的LurieNanofabricationFacility将忆阻器阵列直接集成到芯片上。他们还开发了将机器学习算法映射到忆阻器阵列矩阵结构的软件。  该团队使用三种基本的机器学习算法演示了该设备:感知器,用于对信息进行分类。能够以100%的准确度识别不完美的希腊字母稀疏编码、压缩和分类数据,尤其是图像。计算机能够找到最有效的方法来重建一组图像并以100%的准确度识别其模式一个双层神经网络,旨在寻找复杂数据中的模式。这个双层网络发现了乳腺癌筛查数据的共性和差异,然后将每个病例分类为恶性或良性,准确率为94.6%  扩展商业用途具有挑战性。但卢计划将该技术商业化。该研究的标题是“用于高效乘法累加运算的完全集成的可重新编程忆阻器-CMOS系统”。