当前位置: 首页 > 科技观察

这个AI“大师级”的简笔画水平惊艳网友:连GAN都不用

时间:2023-03-19 17:56:07 科技观察

本文经AI新媒体量子比特(公众号ID:QbitAI)授权转载,转载请联系出处转载。AI画出的简笔画能达到什么水平?美国演员拉米·马雷克的一张照片,效果是这样的。和原图接近吗?一起来看看进入《老友记》合影的效果吧。虽然人物众多,但是简笔画的效果还是可以区分剧中人物的。如果拍到头发特别浓密的人,AI还能hold住吗?小姐姐“爆头”的刘海也算是完美还原了。那些更近的呢?看看泰勒斯威夫特的照片。可以说是相当细致了,头发的层次感、轻盈感,还有衣服的褶皱,都发挥得“淋漓尽致”。...这些是名为ArtLine的AI的作品。并且在Reddit上的人气非常高,已经达到了1100+的人气。这么逼真的效果,你觉得是GAN的功劳吗?错误的!ArtLine完全没有使用GAN:正因如此,ArtLine的效果真的让网友们惊叹不已。那么它是如何做到的呢?ArtLine背后的三大“法宝”ArtLine的作者很爽快地分享了其背后的三大技术:Self-AttentionProgressiveResizingGeneratorLoss接下来我们就来一一了解一下每项技术背后的细节。Self-Attention部分引用的技术来自GAN之父lanGoodfellow等人两年前提出的研究。等等,你刚才不是说“不用GAN”吗?笔者对此的解释是:没有起到太大的作用。本研究主要是在GAN的生成中加入attention机制,同时将SNgan的思想引入到生成器中。需要解决的是传统GAN本身存在的一些问题,例如:使用小的卷积核很难找到图像中的依赖关系。使用大卷积核会在卷积网络参数和计算效率的研究上失去核心自信。注意力机制如下图所示。其中f(x)、g(x)和h(x)都是普通的1x1卷积,唯一不同的是输出通道大小不同。然后,将f(x)的输出转置乘以g(x)的输出,再通过softmax归一化,得到一个AttentionMap。得到AttentionMap后,逐像素乘以h(x)得到自适应attentionfeaturemaps。从结果来看,引入self-attention机制的效果在FID和IS这两个性能指标下确实取得了较好的效果。ArtLine涉及的第二个技术灵感来自Nvidia2018年的一项研究。本研究主要提出了一种训练对抗神经网络的新方法。核心思想是逐步训练生成器和判别器:从低分辨率开始,随着训练的进行逐渐添加新层以细化细节。这种方法不仅可以加快训练速度,而且更稳定,可以产生高质量的图像。ArtLine涉及的最后一项技术来自斯坦福大学李飞飞团队2016年提出的研究,该研究主要解决实现样式转换的问题,相对耗时。风格转换部分主要使用上面的网络模型,可以分为两部分:左边是图像转换网络,右边是损失网络。其超分辨率重建也采用上述网络模型,只是具体内部图像转换网络部分略有不同。与之前的研究相比,这个网络达到了相当的效果,但速度提升了100倍之多,达到了3个数量级。关于作者ArtLine的项目作者叫VijishMadhavan。他在GitHub上坦言自己不是程序员,同时也指出了ArtLine目前的一些缺陷,比如在处理像素低于500px的图片时效果不尽如人意。ArtLine现在可以在线玩了!感兴趣的读者可以点击下方链接进行体验。Colab链接:https://colab.research.google.com/github/vijishmadhavan/Light-Up/blob/master/ArtLine(Try_it_on_Colab).ipynb.ipynb)https://colab.research.google.com/github/vijishmadhavan/Light-Up/blob/master/ArtLine.ipynbGitHub项目地址:https://github.com/vijishmadhavan/ArtLine