当前位置: 首页 > 科技观察

2018下半年,这些深度学习项目千万别错过!

时间:2023-03-13 21:40:29 科技观察

大数据文摘制作编译:fuma、倪妮、蒋宝尚深度学习现在是一个很火的领域,很难一一记录它的快速发展。今年早些时候,作为尝试记录深度学习领域进展的第一步,本文作者RossTaylor创建了网站PapersWithCode。该站点是一个将深度学习研究论文与其实现代码联系起来的社区。PapersWithCode:www.paperswithcode.com这个网站也让作者对深度学习领域有一个全面的了解。基于此,通过这篇文章我们可以看到AI的研究趋势是什么,社区正在采用哪些框架,哪些技术受到青睐。***:BERT、vid2vid和graph_nets的发布GoogleAI的BERT论文在10月份引起了深度学习社区的关注。本文介绍了一种深度双向编码器模型,该模型在11个NLP任务上实现了最先进的性能,包括斯坦福问答(SQUAD)数据集。GoogleAI开源了他们论文的代码,这是深度学习库类别中获得最多“星”的开源代码。论文下载地址:https://arxiv.org/abs/1810.04805论文代码:https://github.com/google-research/bertNVIDIA关于video-to-videosynthesis的论文是另一个惊人的生成建模结果,generative在过去几年中,模型一直是深度学习的最大领域之一。本文利用一种新颖的顺序生成器架构,以及许多其他设计特征(例如前景和背景先验)来修复时间不连贯并提高性能。NVIDIA开源了他们的代码,是第二受欢迎的。论文下载地址:https://arxiv.org/abs/1808.06601/代码地址:https://github.com/NVIDIA/vid2vid/GoogleDeepMind关于图网络的论文在今年年中受到了很多关注。图网络是深度学习已经开始试验的新型结构化数据(大多数深度学习应用都是基于向量和序列)。这个开源库的受欢迎程度排名第三。论文下载地址:https://arxiv.org/abs/1806.01261v3代码:https://github.com/deepmind/graph_nets/***社区:DeOldify、BERT和FastR-CNN1。DeOldifyDeOldify使用SA-GAN,这是一种受PG-GAN启发的架构,在两个时间尺度上应用更新规则。DeOldify项目很吸引人。作者JasonAntic转载了很多生成建模领域的论文,包括self-attentionGANs、step-wisegrowthGANs和两个时间尺度的更新规则。截至撰写本文时,该项目的代码在GitHub上有超过4,000颗星。DeOldify:https://github.com/jantic/DeOldify2。基于PyTorch框架的BERT也很受欢迎。深度学习社区中新兴的代码往往是基于Tensorflow或PyTorch,同时实现这两个框架的需求越来越大,以便整个深度学习社区都能方便地使用它们。作者JunseongKim的作品清楚地说明了这一点。目前,该项目的代码在github上拥有超过1500颗星。伯特:https://github.com/codertimo/bert-pytorch3。MaskR-CNN***,WaleedAbdulla基于Keras/TensorFlow实现的MaskR-CNN,是GitHub上star数第三多的代码。在架构上,该实现使用了特征金字塔网络和ResNet101基础网络,该库可用于许多应用,例如3D建筑物重建、自动驾驶汽车的对象检测、地图中的建筑物类型检测等。该库具有GitHub上超过8,000颗星。论文下载地址:https://arxiv.org/abs/1703.06870代码:https://github.com/matterport/Mask_RCNN最流行的应用:NLP和GAN在前50个流行的实现应用中,生成模型和自然语言处理(NLP)是两个最热门的领域。对于生成模型,GitHub上流行的实现包括:vid2vid、DeOldify、CycleGAN和faceswap。在NLP中,流行的GitHub存储库包括BERT、HanLP、jieba、AllenNLP和fastText。7篇新论文中有1篇有代码你的研究没有代码,你不会在社区中引起注意,规则就是这么简单。以下是作者在自己平台上对论文代码复现的分析:分析基数是近5年的6万多篇机器学习论文,6万篇论文中近12%有代码实现。在过去6个月中,大约15%的新发表论文(即七分之一的论文)发布了实现代码。每20分钟,就有一篇新的机器学习论文。自7月以来,机器学习论文的增长率一直在每月3.5%左右,相当于每年约50%。这意味着每月约有2,200篇机器学习论文,预计明年将发表约30,000篇新的机器学习论文。在过去的3年里,作者网站上机器学习论文的数量增长速度似乎超过了摩尔定律,这让你感觉人们相信这将是未来计算技术的价值来源。框架双寡头:TensorFlow和PyTorch虽然PyTorch紧随其后,但网站上的大多数实现似乎都基于TensorFlow。其他框架(MXNet、Torch和Caffe2)在生态系统中的存在要小得多。鉴于这两个框架的变化:TensorFlow正朝着立即执行和受Keras启发的新API发展;PyTorch正在寻求使模型产品化变得更容易。相关报道:https://medium.com/atlas-ml/state-of-deep-learning-h2-2018-review-cc3e490f1679【本文为栏目组织大数据文摘原创翻译,微信公众号】大数据文摘(id:BigDataDigest)》】点此阅读作者更多好文