GPU模拟猴子大脑,普通台式电脑变超算。发表在《自然》子刊上的英国大学研究表明,配备强大GPU的台式计算机也可以完成这项工作,而且模拟速度比超级计算机还快。在这项来自英国萨塞克斯大学的研究中,研究人员使用配备NVIDIATitanRTXGPU的台式PC来模拟猴脑视觉皮层的大型模型。该模型包含4.13×10^6个神经元和24.2×10^9个突触。实验使用的GPU显存为24GB,价值2452英镑(约合人民币21780元)。使用研究人员提出的新方法,他们可以在单个GPU上运行模拟,速度比超级计算机更快,而且成本更低。长期以来,GPU一直被用于加速AI模型的计算,但在普通显卡上运行如此大的模型还是第一次。通常,这种级别的大脑模拟需要具有强大内存的超级计算机,但萨塞克斯大学的研究人员提出了一种更有效的技术,可以大大减少模拟过程中需要存储的数据量。他们的方法被称为“程序连接”,相关研究发表在Nature的新子刊-《Nature Computational Science》上。该子刊于2021年1月创刊,主要发表与计算技术和数学模型的开发和使用相关的研究,及其在一系列科学学科(包括但不限于生物信息学、化学信息学、物理学领域的应用)中的应用和宇宙学、材料科学和城市科学)。论文链接:https://www.nature.com/articles/s43588-020-00022-7?utm_medium什么是“程序化连接”?模拟大脑通常需要脉冲神经网络,这是一种模拟大脑行为的专用人工智能系统,其中神经元通过一系列脉冲信号进行通信。为了准确预测尖峰如何影响神经元,描述哪些神经元通过突触连接在一起以及通常如何在运行模拟之前生成和存储的信息。然而,由于神经元只是周期性地放电,因此将如此大量的数据连续保存在内存中是非常低效的。为了解决这个问题,研究人员提出了“程序化连接”的概念。“程序连接”允许研究人员根据需要实时生成与神经元连接相关的数据,而不是将数据存储在内存中并从中检索信息。这完全消除了在内存中存储连接数据的需要。“这些实验通常需要你提前生成所有的连接数据,并用这些数据填充内存,而我们的方法就是避免这个过程。”该论文的作者詹姆斯奈特说。他还补充说,“使用我们的方法,每当神经元发出尖峰信号时,连接的细节就会重新生成。”“我们利用GPU的强大功能,在每次神经元激活时实时重新计算连接。”也就是说,借助GPU强大的计算能力,脉冲神经网络可以在神经元脉冲被激发时“以编程方式”生成连接数据。该方法建立在美国学者EugeneIzhikevich于2006年提出的研究基础上,但当时的计算机速度太慢,无法广泛应用。现在,GPU的计算能力是15年前的2000倍,“脉冲神经网络”的研究时机已经成熟。一台电脑+一块GPU或许可以重现大脑模拟论文事实上,这项研究的结果不仅可以与目前最快的超级计算机相媲美,而且速度更快。在静止状态下,新方法仅用8.4分钟就模拟了生物体的一秒钟,比之前的超级计算机模拟节省了高达35%的时间(一个例子是2018年在IBMBlueGene/Q上运行的模拟)。正如Knight解释的那样,这是因为IBM的设施由1,000个连接在一个房间里的计算节点组成。“无论系统多么复杂,节点之间仍然存在一些延迟。模型之间的距离越远,速度就越慢,而我们的模型可以快几个数量级。”詹姆斯·奈特和托马斯·诺沃特尼。除了提高实验速度外,研究人员还希望这种方法能够降低这种大规模生物模拟研究的硬件门槛。在大脑模拟领域,模型的大小可能以TB为单位,但超级计算机只是少数研究团队的特权。还有一点:奈特和他的团队的研究可以让神经科学和人工智能研究人员在他们本地的工作站上模拟大脑回路,同时也可以让学术界以外的人把他们的游戏笔记本电脑变成可以运行大型神经网络的电脑。“自然计算科学的审稿人在他们自己的电脑上对这项研究进行了实验,”奈特说。“所以,如果你有一台计算机和一个合适的GPU,也许你也可以查看论文中关于再现的部分并试一试。程序化连接非常适合大脑模拟实验中使用的脉冲神经网络,但Knight认为随着类脑机器学习取得更多进展,将会出现更多的人工智能应用。研究团队希望这种方法能够促进科学研究,并显着降低研究哺乳动物大脑工作原理和研究神经系统疾病的成本。大脑模拟也是帮助阿尔茨海默氏症和帕金森氏症的关键工具。无论是映射哺乳动物大脑的行为还是开发更好的语音识别工具,神经网络都越来越受到学术界和工业界的关注。现在,有了GPU,谁能说卧室不能是梦想开始的地方吗?
