过去十年,数据科学和机器学习领域取得了巨大进步。借助深度学习方法,许多高维学习任务(如计算机视觉、蛋白质折叠)也可以在适当的计算规模下完成。虽然学习通用函数在高维空间是一个非常困难的问题,但方法对于大多数任务来说并不通用,并且在物理世界的底层低维和结构中存在一些必要的预定义规律。图神经网络和几何深度学习的一系列最新进展有望帮助机器学习解决更深层次、更复杂的问题。几何深度学习是从对称性和不变性的角度对广义机器学习问题进行几何统一的尝试。这些原则不仅是卷积神经网络突破性性能和图神经网络近期成功的基础,而且还提供了一种构建新颖的、针对特定问题的归纳偏差的原则性方法。一本名为《几何深度学习》的新书揭示了可应用于各种应用的几何统一原理的规律性。这种“几何统一”有两层含义:一方面,它为研究一些神经网络架构,如CNN、RNN、GNN和Transformer提供了一个通用的数学框架。另一方面,它提供了一个将先验物理知识整合到神经架构中的建设性程序,并提供了构建一些新架构的原则性方法。手把手教你搭建机器学习架构《几何深度学习》(GeometricDeepLearning,Grids,Groups,Graphs,Geodesics,andGauges)是深度学习几何统一计划的在线书籍第一版,作者表示该书出版自2020年2月开始撰写,目前这一版已经超过150页。该研究的四位作者MichaelM.Bronstein、JoanBruna、TacoCohen和PetarVeli?kovi?分别来自帝国理工学院、纽约大学和DeepMind等研究机构。链接:https://geometricdeeplearning.com/arXiv论文:https://arxiv.org/abs/2104.13478在这本书中,研究人员试图提取“所有常用神经架构的结构所需知识”。涵盖了CNN、GNN、Transformer和LSTM等常见模型,同时还包括了SphericalCNN、SO(3)-Transformer和GaugeEquivariantMeshCNN等较新的模型。全书包括内容介绍、高层次空间学习、几何先验知识、几何领域、几何深度学习模型、存在问题与应用、历史展望等7章。以下是该书的目录:预备知识本书作者之一、DeepMind高级研究科学家PetarVeli?kovi?表示:“如果你之前没有接触过群论知识,我们所掌握的一些概念constructed可能看起来有点不真实。为此,你可以提前看一些作者之间的视频分享内容作为前台,也许这样可以让一些无法用文字准确描述的内容更“生动”。PetarVeli?kovi?在剑桥大学的分享-图神经网络的理论基础:https://www.youtube.com/watch?v=uF53xsT7mjcMichaelBronstein在ICLR2021上的主题演讲:https://iclr-conf.medium.com/announcing-the-iclr-2021-invited-speakers-db4aba84038a另外,书中的内容包括以下概念:域:定义数据的所有“点”的集合。例如,对于图像,域是所有像素的集合;对于图,定义域是所有节点和边的集合.请注意,该集合可能是无限的或连续的,但将其想象为有限的可能会使一些数学更容易。对称群:从集合Ω到Ω本身的双射集(g:Ω→Ω)。例如,通过将图像上的每个像素向右移动一个槽位,图像上的对象不会发生变化。由于要求对象在进行对称变换时保持不变,因此引入了以下属性:对称操作必须是可组合的。例如,如果您将球体绕x轴旋转30度,然后再绕y轴旋转60度,并假设每次旋转都不会改变球体上的对象,连续使用多个变换,球体上的对象也不要改变,即绕x轴旋转30度再绕y轴旋转60度也是对称操作。一般来说,如果g和h是对称运算,那么gooh也是对称运算。对称操作必须是可逆的——如果我没有改变底层对象,那么我必须能够返回到我自己的来源(否则意味着丢失信息)。因此,如果球体顺时针旋转30度,则可以通过逆时针旋转30度来“撤销”原始运动。如果g是对称的,则g^-1必须存在(并且是对称的),这使得gog^-1=id(身份)。保持域常数的恒等函数(id)也必须是对称的。将所有这些性质相加,您会发现所有对称集与组合运算符(o)一起构成一个群,这是本书中广泛使用的数学构造。对称性的重要性早已在机器学习社区中得到认可,尤其是在模式识别和计算机视觉应用中,等变特征检测的早期工作可以追溯到上世纪的Shun'ichiAmari和ReinerLenz研究。在神经网络领域,MarvinMinsky和??SeymourPapert提出的感知器群不变性定理提供了(单层)感知器学习不变性能力的基本定义。这是后续多层架构研究的起点,最终导致深度学习。
