顺应近几年的趋势,深度学习依然是2020年发展最快的领域之一,直奔未来工作。它的发展是多方面的,多方面的。以下对今年发展中的一些突出亮点进行梳理盘点。2020年1月,OpenAI宣布PyTorch作为其标准深度学习框架。AI研究机构OpenAI宣布PyTorch作为其新的标准深度学习框架。PyTorch将提高其在GPU上的大规模研究生产力。在PyTorch的支持下,OpenAI已将其生成建模迭代时间从数周缩短至数天。2020年3月(1)旷视开源深度学习AI框架中国初创公司旷视科技表示,将开源其深度学习框架。MegEngine是旷视自主研发的人工智能平台Brain++的一部分。它广泛训练计算机视觉,并帮助世界各地的开发人员构建用于商业和工业用途的AI解决方案。(2)Keras2.4.0发布新版本,澄清了tf.keras与独立Keras包之间不兼容和差异的困惑。现在,单个Keras模型——tf.keras——已经上线。(3)华为技术有限公司开源“Mindspore”华为技术有限公司开源了MindSpore,一个面向移动端、边缘端和云端场景的深度学习训练框架。该框架是轻量级的,正在为TensorFlow和PyTorchCompete带来强烈的影响。它可以跨设备扩展,并且在自然语言处理(NLP)等功能上使用的代码减少了20%。它还支持并行训练,节省在不同硬件上的训练时间,并维护和保存敏感数据。MindSpore本身并没有不处理任何数据,只是摄取预处理后的模型和梯度信息,以保持模型的健壮性。2020年4月IBM的CogMol加速COVID-19治疗的开发IBM的深度学习框架CogMol将帮助研究人员加速治疗COVID-19等传染病。新框架将解决当前“用于创建新型肽、蛋白质、候选药物和材料的生成人工智能模型”的挑战。2020年6月(1)ABBYYOpenSourcesNeoML,DeepLearning算法和算法框架ABBYY宣布推出NeoML。它是一个用于构建、训练和部署ML模型的开源库。NeoML是一个跨平台框架。它针对运行在云端、桌面和移动设备上的应用程序进行了优化,并支持深度学习和机器学习算法。ABBYY的工程师将其用于计算机视觉和NLP任务。这些任务包括图像预处理、分类、OCR、文档布局分析以及从结构化或非结构化文档中提取数据。“NeoML为在任何设备上运行的预训练图像处理模型提供15-20%的性能。”该库被设计为处理和分析多格式数据(视频、图像等)的综合工具。(2)FINDERPOSTS网络科学家多年来一直在努力解决一个重要问题。他们一直在尝试确定最能影响网络功能的关键参与者或最佳节点集。今年6月,来自中国国防科技大学、加州大学洛杉矶分校(UCLA)和哈佛医学院(HMS)的研究人员发表了名为FINDER(FindingkeyplayersinNetworksthroughDeepReinforcement)的深度强化学习(DRL)学习)框架。它在一小组合成网络上进行训练,然后应用于真实场景。该框架可以识别复杂网络中的关键参与者。它发表在《自然机器智能》的一篇论文中。2020年8月(1)scikit-learn发布0.23版本。新版本包括一些新的主要功能并修复了先前版本中的错误。它的主要特征包括:广义线性模型和梯度提升的泊松损失;丰富的估计器的视觉表示;改进KMeans的可扩展性和稳定性;改进基于直方图的梯度提升估计器;对Lasso和ElasticNet的样本权重支持。2020年9月,亚马逊出版了《深度学习分析》《Dive into Deep Learning》一书。亚马逊团队在书中添加了关键的编程框架。这本书——深入学习——是通过JupyterNotebooks起草的,整合了数学、文本和可运行代码。它是一个完全开源的实时文档,可触发对HTML、PDF和笔记本版本的更新。虽然本书最初是为MXNeT编写的,但其作者还包括PyTorch和TensorFlow。这本书来自Amazon,对于对深度学习感兴趣的学生、开发人员和科学家来说是一个很好的开源资源。2020年10月(1)《自然机器智能》杂志发表开创性模型新人工智能系统。这种新时代的人工智能系统建立在线虫等微小动物的大脑之上,只需要几个人工神经元就可以控制车辆。与以往的深度学习模型相比,该方案具有显着优势。远离臭名昭著的“黑匣子”,它处理嘈杂的输入并且简单易懂。该模型发表于《自然机器智能》。(2)MIScnn发布MIScnn是一个开源的Python框架,用于使用卷积神经网络和深度学习进行医学图像分割。它具有直观的API,只需几行代码即可快速设置医学图像分割管道。MIScnn还具有数据I/O、预处理功能;基于补丁的分析;数据扩充;指标;具有最先进的深度学习模型和模型利用的库;和自动评估。(3)TensorFlow2.3发布tf.data,解决输入管道瓶颈,提高资源利用率。对于高级用户,它提高了训练速度。tf.data允许用户在不同的训练运行中重复使用输出,从而释放额外的CPU时间。TFProfiler添加了一个内存分析器来可视化模型的内存使用情况,以及一个Python跟踪器来跟踪模型中的Python函数调用。它还为新的Keras预处理层API提供实验性支持。(4)PyTorch1.7.0版本包含许多新的API,包括“支持与NumPy兼容的FFT操作、分析工具,以及对分布式数据并行性(DDP)和基于远程过程调用(RPC)的分布式训练的重要支持。”更新。”十一月及以后随着2020年进入最后一圈,期待更多令人印象深刻的新发展出现。马克库班曾经说过。“人工智能,深度学习,机器学习-无论你在做什么,如果你不明白它,学习它。因为否则你的知识将在3年内过时。”为深度学习干杯!
