本文经AI新媒体量子比特(公众号ID:QbitAI)授权转载,转载请联系出处.机器学习就是调参?这种思路已经过时了。谷歌大脑团队发布了一项新研究:仅通过神经网络架构搜索的网络可以直接执行任务,无需训练或调整参数。这样的网络称为WANN,WeightAgnosticNeuralNetwork。在没有训练和权重调整的情况下,它在MNIST数字分类任务上达到了92%的准确率,这与经过训练的线性分类器的性能相当。除了监督学习,WANN还能够完成许多强化学习任务。团队成员之一的DavidHa在推特上发布了结果,获得了1300多个赞:嗯,先来看看效果吧。结果GoogleBrain使用WANN处理了3个强化学习任务。(对于每组神经元,共享相同的权重。)第一个任务,Cart-PoleSwing-Up。这是一个经典的控制任务,滑轨,小车,小车上的杆子。小车在滑轨范围内运行,应将杆从自然下垂的状态摇起,保持直立状态,不得倒下。(这个任务比简单的Cart-Pole更难:Cart-Pole的初始位置是直立的,不需要推车来摇,保持就行了。)难点体现在没有办法用线性控制器(LinearController)来解决。每个时间步的奖励是根据小车到滑轨末端的距离和杆子的摆动角度来计算的。WANN最好的网络(ChampionNetwork)看起来是这样的:它在没有训练的情况下表现很好:表现最好的共享权重给了团队一个非常满意的结果:它只用了几次摆动就达到了平衡状态。第二个任务,BipedalWaker-v2。两足动物“生物”需要在随机生成的道路上、颠簸处和坑道上向前行走。奖励多少取决于它从开始到死亡的距离,以及电机扭矩的成本(以鼓励有效运动)。每条腿的运动由一个髋关节和一个膝关节控制。有24个输入会引导它的运动:包括“激光雷达”检测到的前方地形数据、本体感受的关节运动速度等等。与第一个任务中的低维输入相比,这里可能的网络连接更加多样:因此,WANN需要对输入到输出的连接方式进行选择性。WANN也高质量地完成了这项高维任务。你看,这是搜索出来的最好的架构,比刚才的低维任务复杂多了:它运行在-1.5的权重下,看起来是这样的:第三个任务,CarRacing-v0。这是一款像素环境中的自上而下(Top-Down)赛车游戏。汽车由三个顺序命令控制:加速器、转向器、制动器。目标是在规定时间内通过尽可能多的砖块。曲目是随机生成的。研究人员将解释每个像素(PixelInterpretation)的工作交给了预训练的变分自动编码器(VAE),它可以将像素表示压缩为16个潜在维度。这16个维度就是网络输入的维度。学习到的特征用于测试WANN学习抽象关联(AbstractAssociations)的能力,而不是编码不同输入之间的显式几何关系。这是最好的WANN网络,共享权重-1.4,未经训练的赛车结果:虽然道路有点曲折,但很少偏离。并微调最佳网络,无需训练,会更流畅:综上所述,在简单性和模块化方面,第二个和第三个任务非常出色,双足控制器只使用了25种可能性。17个输入,忽略了许多LIDAR传感器和膝关节速度。WANN架构不仅可以在不训练单个权重的情况下完成任务,而且仅使用210个网络连接(Connections),比当前State-of-the-Art模型使用的2804个连接少了一个数量级。经过深入学习,团队瞄准了MNIST,将WANN扩展到监督学习的分类任务上。对于一个普通的网络,在参数随机初始化的情况下,MNIST上的准确率可能只有10%左右。新方法搜索到的网络架构WANN采用随机权重运行,准确率已经超过80%。如果像刚才提到的那样用多个权重的集合来喂它,准确率已经达到了91.6%。相比之下,fine-tunedweights可以带来91.9%的准确率,trainedweights可以带来94.2%的准确率。相比之下,具有数千个权重的线性分类器:它只与WANN一样准确,无需训练,无需微调,仅提供一些随机权重。论文强调MINST手写数字分类是一项高维分类任务。WANN表现非常好。并且没有一个权重值看起来比其他值更好,而且每个人都表现得很平衡:所以随机权重是可行的。但是,每个由不同权重组成的网络都有自己的数字,善于区分,因此具有多个权重的WANN可以用作自给自足的集成(Self-ContainedEnsemble)。实现原理不训练权重参数以获得极高的精度。万安是怎么做到的?神经网络不仅有权重来偏置这些参数,网络的拓扑结构和激活函数的选择也会影响最终的结果。GoogleBrain的研究人员在论文开头提出质疑:与架构相比,神经网络的权重参数有多重要?在不学习任何权重参数的情况下,神经网络架构可以在多大程度上影响给定任务的解决方案。为此,研究人员提出了一种神经网络架构搜索方法,以寻找在没有训练权重的情况下执行强化学习任务的最小神经网络架构。谷歌的研究人员也在监督学习领域使用了这种方法,仅使用随机权重就可以达到比MNIST上的随机猜测高得多的准确率。该论文从架构搜索、贝叶斯神经网络、算法信息论、网络剪枝和神经科学等理论中汲取灵感。为了生成WANN,必须最小化权重对网络的影响。随机抽取权重可以保证最终的网络是架构优化的产物,但是在高维空间随机抽取权重太难了。研究人员采取了一种“简单粗暴”的做法,强制对所有权重进行权重共享,将权重值的个数减少为一个。这种有效的近似可以推动对更好架构的搜索。操作步骤已经解决了权值初始化的问题,接下来的问题就是如何收集搜索权值不可知神经网络。分为四个步骤:1.创建一个初始的最小神经网络拓扑组。2.通过多次rollout评估每个网络,并为每个rollout分配不同的共享权重值。3.根据性能和复杂性对网络进行排序。4.根据排名最高的网络拓扑创建新组,通过比赛结果进行概率选择。然后该算法从步骤2开始重复,在连续迭代中产生复杂性增加的权重不可知拓扑。拓扑搜索用于搜索神经网络拓扑的操作受到神经进化算法(NEAT)的启发。在NEAT中,拓扑和权值同时优化,研究人员忽略权值,只进行拓扑搜索操作。上图展示了网络拓扑空间搜索的具体操作:一开始,网络是最左边的最小拓扑结构,只有部分输入和输出相连。然后通过三种方式更改网络:1.插入节点:拆分现有连接并插入新节点。2.添加连接:连接两个之前未连接的节点,并添加一个新的连接。3.改变激活函数:重新分配隐藏节点的激活函数。图中最右边显示了可能的权重在[2,2]范围内的激活函数,例如线性函数、阶跃函数、正余弦函数、ReLU等。权重仍然很重要。与传统的固定拓扑网络相比,WANN可以使用单一的随机共享权重并取得更好的效果。尽管WANN在多个任务中取得了最好的结果,但WANN并不完全独立于权重值,有时在随机分配单个权重值时会失败。WANN通过编码输入和输出之间的关系来工作。虽然权重大小的重要性不高,但它们的一致性,尤其是符号的一致性是关键。随机共享权重的另一个好处是调整单个参数的效果变得微不足道,无需使用基于梯度的方法。强化学习任务的结果促使作者考虑推广WANN方法的应用范围。他们还在图像分类MNIST这一基本任务上测试了WANN的性能,结果在权重接近于0时表现不佳。一些Reddit网友对WANN的结果提出了质疑。对于随机权重接近于0的情况,网络的性能不好。在第一个强化学习实验中的具体表现是小车会跑出限定范围。对此,作者解释说,当权重趋于0时,网络的输出也会趋于0,所以在后期优化中很难获得更好的性能。传送门原文链接:https://weightagnostic.github.io/源码:https://github.com/weightagnostic/weightagnostic.github.io
