传统上,高性能计算(HPC)依靠数值分析来求解物理方程来模拟从亚原子到银河系的系统行为。然而,最近,科学家们开始尝试一种完全不同的方法。事实证明,机器学习(ML)模型比现有的数字运算模拟更高效、更准确。一旦使用来自传统分析和直接观察的近乎完美的数据集对深度神经网络(DNN)进行了训练,它就可以预测或估计模拟的结果,而无需实际运行它。早期结果表明,通过将ML与传统模拟相结合,这些“合成模型”可以提高准确性、加快求解速度并显着降低成本。如果这种做法得到广泛采用,将进一步推动以NVIDIA为代表的加速器供应商的业务发展。机器学习和HPC机器学习模型的交集可用于解决极其复杂的问题。因此,它使用的资源比传统方法少得多。ML可以更高效有两个原因。首先,数值分析通常需要昂贵的64位浮点计算,而经过训练的神经网络通常只需要8位整数计算。训练DNN无疑对计算要求很高,需要许多GPU和数万亿次计算。但是,经过训练后,DNN可以使用简单的整数进行运算。其次,整个方法的工作原理是在现有数据中寻找模式中的规律,而不是计算数值方程。因此,早期的研究表明,机器学习通常消耗的资源要少得多,并且可以解决传统模拟无法掌握的问题。机器学习对HPC的好处尽管ML在HPC领域是一个相对较新的功能,但科学家们已经在研究中应用了综合建模,并取得了一些引人注目的结果。前期研究案例较少。以下是在SC17超级计算大会上备受关注的一些典型研究项目:1.LIGO信号处理(NCSA)——快5000倍2.预测分子能量学(UFL/UNC)——快30万倍3.引力透镜分析(SLAC)斯坦福大学)-从数周到10毫秒4.生成玻色爱因斯坦凝聚(新南威尔士大学):快14倍5.持久聚变(普林斯顿):中断预测从85%提高到90%6.跟踪中微子(费米实验室):检测率提高了33%7.ProteinLigandScoring(匹兹堡大学):将姿势预测准确度从52%提高到70%可以通过三种方式将ML应用于HPC问题。首先,它可用于在连续迭代之间调整模拟或实验——加速收敛到稳定可靠的模型。劳伦斯利弗莫尔国家实验室研究聚变能力的研究人员使用ML检查模拟运行期间的分歧,自动调整参数以保持模拟正常进行。他们报告说使用这种技术可以显着提高速度。另一种方法是增强现有模拟以提高准确性并减少延迟。在这里,模拟为神经网络提供起点和训练数据,以改进数值模型的输出。这种方法的一个显着示例是高分辨率光线追踪。这种传统的计算密集型方法创建了一个“真实”图像,然后用于训练DNN以更少的资源生成额外的高质量图像。机器学习可以用比传统光线追踪少得多的计算资源生成高质量图像。***,也许机器学习在HPC中最具影响力的应用是用基于ML的近似值代替数值模拟模型。这种方法有可能改变HPC。然而,这种方法要求科学家采用一种方法,这种方法最终可能会使他们花费数十年开发的代码过时。当然,实践中的结果也可能是惊人的。佛罗里达大学和北卡罗来纳大学的科学家们已经看到了它在药物研究中的好处,他们能够将计算时间从几分钟缩短到微秒,减少了六个数量级。这可能会对筛选新候选药物所需的时间产生巨大影响,使用传统CPU可能需要五年的时间。结论这种新方法仍处于起步阶段,并且存在一定争议。但机器学习研究人员已经证明,他们可以将计算资源和能源消耗减少几个数量级,同时提高准确性并减少延迟。鉴于政府和行业的资助以及可用的极其高效的GPU硬件,这一趋势预计在未来几年将大大加速。
