1965年,戈登·摩尔总结了一个经验法则:集成电路上可以容纳的晶体管数量大约每18到24个月增加一倍。换句话说,处理器性能大约每两年翻一番。这个经验法则被称为“摩尔定律”。在接下来的四十年里,半导体芯片制造工艺确实以令人眼花缭乱的速度翻了一番。但近年来,摩尔定律的倍增效应有所放缓,甚至有人预测它会在不久的将来失效。针对这一发展瓶颈,业界提出了多种解决方案。来自斯坦福大学的神经形态工程师KwabenaBoahen最近提出了一个新想法:人工神经元应该模仿生物神经元的树突,而不是突触。研究论文发表于《Nature》。论文地址:https://www.nature.com/articles/s41586-022-05340-6目前,神经形态计算旨在通过模仿构成人脑的神经元和突触的机制来实现人工智能(AI)。人工神经网络反复调整连接神经元的突触以修改每个突触的“权重”,或一个神经元对另一个神经元的影响强度,然后神经网络确定由此产生的行为模式是否更善于寻找解决方案。随着时间的推移,系统会发现哪些模式最适合计算结果,并采用这些模式作为默认模式。神经网络通常包含很多层神经元,例如GPT-3有1750亿个权重,连接相当于830万个神经元,深度为384层。随着神经网络的规模和功能不断增加,它们变得越来越昂贵和耗能。以GPT-3为例,OpenAI花费460万美元在9200个GPU上运行两周来训练这个大型模型。KwabenaBoahen说:“GPT-3在训练过程中消耗的能量转化为相当于1300辆汽车的碳排放量。”这也是Boahen提出神经网络接下来要尝试数字图学习的重要原因。模仿神经网络中的树突将增加传输信号中传递的信息量,使人工智能系统能够在手机等移动设备上运行,而无需GPU云中的兆瓦功率。树突可以大量分支,允许一个神经元连接到许多其他神经元。已经发现,树突从其分支接收信号的顺序决定了其响应的强度。Boahen的树突计算模型只有在从神经元接收到精确的信号序列时才会做出响应。这意味着每个树突都可以编码数据,而不仅仅是像0/1这样的简单电信号。基础系统将变得更加强大,这取决于它拥有的连接数量和它接收到的信号序列的长度。在实际构建方面,Boahen提出使用铁电场效应管(FeFET)来模拟树突。具有5个栅极的1.5微米长的FeFET可以模拟具有5个突触的15微米长的树突。Boahen表示,这种构建可能会在“3D芯片”中实现。感兴趣的读者可以阅读论文原文了解更多研究细节。参考链接:https://spectrum.ieee.org/dendrocentric-learning
