从图像处理、智慧医疗、自动驾驶、智慧城市等各个AI领域的突破来看,深度学习无疑正在经历一个黄金时代年龄。在未来十年左右的时间里,人工智能和计算机系统最终将具有类似人类的学习和思考能力,以处理不断流动的信息并与现实世界互动。然而,当前的人工智能模型在不断接受新信息训练时会出现性能损失。这是因为每当生成新数据时,它都会覆盖现有数据,从而擦除以前的信息。这种效应被称为“灾难性遗忘”。稳定性——可塑性困境导致AI模型需要更新其记忆以不断适应新信息,同时保持当前知识的稳定性。这个问题阻碍了SOTAAI模型从真实世界的信息中持续学习。同时,边缘计算系统允许计算从更靠近原始来源的云存储和数据中心卸载,例如物联网连接设备。在资源有限的边缘计算设备上有效地应用持续学习仍然是一个挑战,尽管该领域已经提出了许多持续学习模型来解决这个问题。传统模型需要高计算能力和大存储容量。最近,新加坡科技设计大学(SUTD)的一个研究团队设计了一种新模型,可以实现节能的连续学习系统,研究《Continual Learning Electrical Conduction in Resistive-Switching-Memory Materials》发表在期刊《先进理论与模拟》上。论文地址:https://onlinelibrary.wiley.com/doi/abs/10.1002/adts.202200226团队提出了一种类脑模型——Brain-InspiredReplay(BIR),可以自然地进行持续学习。BIR模型基于人工神经网络和变分自动编码器来模拟人脑的功能,在没有存储数据的增量学习场景中也有很好的表现。研究人员还使用BIR模型来表示数字存储系统中使用电流的导电细丝的生长。下图左上是generativereplay设置,右上是用generativereplay训练一个人工神经网络;左下角和右下角分别是常规模型和BIR模型的归一化电流精度。该论文的通讯作者之一、助理教授Loke解释说,“在BIR中,知识保存在经过训练的模型中,这在引入额外任务时最大限度地减少了性能损失,并且不需要参考以前工作的数据。因此,这种方法可以节省大量能源。”他还补充说,“在没有存储数据的情况下,在当前学习任务的合规性挑战上实现了89%的SOTA准确率,比传统的持续学习模型高出约两倍,并实现了高能效。”此外,为了使BIR模型能够独立处理现实世界的场景信息,团队计划在下一阶段的研究中扩展其可调能力。洛克说,这项基于小规模示范的研究仍处于早期阶段。然而,采用这种方法有望让边缘人工智能系统在没有人为控制的情况下独立发展。
