深度网络对机器学习研究和应用领域产生了巨大的影响,但同时也无法清楚地说明深度网络的来龙去脉。人们一直在努力更透彻地理解这个复杂的过程。由于人类对世界的认知和感受主要来自视觉,良好的可视化可以有效帮助人们理解深层网络,并做出有效的优化和调整。本文主要基于ICML可视化工作坊和找到的相关论文,分享其中提到的一些高级可视化概念和方法。主要内容参考:http://icmlviz.github.io/ACTIVISFacebook开发的交互式深度学习可视化系统,可以生动直观地呈现生产环境中的大规模模型和机器运行的结果。该系统可以支持四个方面的可视化。模型架构概览及其对应的计算图神经元激活矩阵用于检验激活情况,可视化投影到2D可以对每个实例的结果进行可视化分析支持为不同的实例、子集、类型添加不同的实例Grad-CAMGrad-CAM指的是Gradient-weightedClassActivationMapping。研究人员提出使用这种梯度加权激活映射来解释卷积神经网络的分类。在输入图片中大致展示了模型预测的类别对应的重要性区间。该方法可广泛应用于CNN模型族的模型预测可视化过程。在上图中可以看到,对于猫和狗的不同分类,显示的置信区域也是一样的。同时,它还可以展示可视化问答的过程:DeepView研究人员基于可视化工具DeepView研究了深度网络在训练过程中的演化。判别矩阵和密度矩阵用于评估神经元的进化过程,并在训练过程中输出特征图。总的来说,建立了一个非常详细的可视化分析框架,可以有效展示模型在训练过程中局部和全局的特征变化。参考:http://www3.cs.stonybrook.edu/~mueller/people/http://101.96.8.164/icmlviz.github.io/assets/papers/2.pdf一个用于自然语言处理的交互式可视化工具,可以可视化NLP系统的输出,帮助用户更好地理解文本数据的处理,并进行一些必要的修正。这样的反馈过程可以帮助提高模型的准确性。参考:https://arxiv.org/pdf/1707.01890v2.pdfLSTMV递归神经网络,尤其是长短期记忆网络,是时间信号的有力工具,可以有效地建立和表征时间输入的隐式模式。研究人员对隐藏层如何随时间变化很感兴趣,这项工作的重点是可视化递归神经网络中的隐藏层动态。用户可以使用该工具专门选择输入范围并与同模型的大数据集进行比较,也可以使用该工具对独立模型进行统计分析。参考:http://lstm.seas.harvard.edu/https://vcg.seas.harvard.edu/code-dataDeep可视化工具箱这个工具箱可以可视化地可视化深度学习网络中图像每一层的输出:参考:http://yosinski.com/deepvishttps://github.com/yosinski/deep-visualization-toolboxhttps://deeplearning4j.org/overview数据可视化参考>>http://colah.github.io
