当前位置: 首页 > 科技观察

效果爆炸的漫画变身AI,火到服务器几度挤爆

时间:2023-03-19 01:32:04 科技观察

特效爆炸的漫画变AI,服务器数次被压垮。有1241人在排队,等了2600秒……”——今年的网友们真的很努力,想看看他们在动漫中的样子!《教唆者》是一款可以把人像变成动漫的生成器。只要一张图或者一张视频,不管男女老少,明星素人都能看到他们的“动漫风”~什么“国民老婆”王冰冰:什么“国民一姐”IU:什么科技圈大佬,EDG成员,金发美女、蓉蓉……头发、眉毛,甚至眼里的情绪,都为你“刻画”得淋漓尽致……△视频效果难怪网友刷爆服务器,随便翻翻一下大家的作品,简直了deepBottomless看看GitHub上的相关项目,果然冲上了趋势榜的前列,这个AnimeGAN真是太厉害了!如何给自己捏一张动漫脸?看完展示效果,你是不是也想你有自己的专属漫画脸吗?你会的,现在我来教你怎么做。第一种方法非常非常简单,上传一张照片即可。提供在线玩法的网站(链接见文末),就是大名鼎鼎的HuggingFace。它专门开了一个在线的AnimeGANv2app,把图片“扔”进去就行了。但!!!前面说了,这个AI现在真的是太流行了,简单的在线方法就相当于排队了。这不,等了5259秒,前面还有15个人……不想排队怎么办?接下来就是第二种方法——代码!热心等了3个小时,网友终于忍不住了,强烈安利Colab版(链接见文末):先运行文档中的前两段代码,然后简单修改一下照片路径。当然,如果你想增加难度和挑战,还有AnimeGANv2的GitHub项目:上面介绍的方法都是使用图像转换。如果要使用视频,在AnimeGANv2项目中执行如下两条命令:当然,这个项目也有Pytorch实现,但是Pytorch版本目前只支持图片转换;如果要转换视频,暂时需要写个脚本~styletransfer+GAN那么,这样的效果背后的原理是什么??AnimeGAN是武汉大学和湖北工业大学的一项研究,采用了神经风格迁移+生成对抗网络(GAN)的组合。它实际上是基于CartoonGAN的改进,提出了更轻量级的生成器架构。AnimeGAN的生成器可以看作是一个对称的encoder-decoder网络,由标准卷积、depthwiseseparableconvolution、reverseresidualblock、upsampling和downsampling模块组成。为了有效减少生成器的参数数量,AnimeGAN网络中使用了8个连续且相同的IRB(invertedresidualblocks)。在生成器中,最后一个1×1核的卷积层没有使用归一化层,后面是一个tanh非线性激活函数。上图中,K是kernelsize,C是featuremap的个数,S是每个卷积层的span,H是featuremap的高度,W是featuremap的宽度,Resize值用于设置featuremapsize的插值方式,⊕表示逐元素相加。这次的V2版本是在第一代AnimeGAN基础上的升级,主要解决了模型生成的图像存在高频伪影的问题。具体来说,采取的措施是使用特征的层归一化来防止网络在生成的图像中产生高频伪影。作者认为层归一化可以使特征图中的不同通道具有相同的特征属性分布,可以有效防止局部噪声的产生。AnimeGANv2的生成器参数大小为8.6MB,而AnimeGAN的生成器参数大小为15.8MB。它们都使用大致相同的鉴别器,区别在于AnimeGANv2使用层归一化而不是实例归一化。网友:变漂亮了这个AI也算是圈粉不少。有网友“冲进二次元”后,发现了自己惊人的美:美到我了!并非常自豪地张贴了他的漫画脸。看完比尔盖茨的效果,有网友直呼:天啊!盖茨看起来既聪明又性感。作者:生成效果更好的AnimeGANv3即将推出。AnimeGAN的原作者有3位,分别是湖北工业大学刘刚副教授、陈杰博士和他们的学生陈昕。这个项目的诞生主要源于团队成员的个人兴趣,即对二次元宅文化艺术的热爱。据作者之一Chen介绍,AnimeGAN和AnimeGANv2耗时2-3个月完成,遇到了很多困难。其中包括极度缺乏硬件资源。比如当时用于AnimeGAN的NVIDIA单卡服务器,就是艺术与设计学院院长饶健教授提供的,而他负责的研究也是靠向其他同学借机运行实验。到了AnimeGANv2,就剩下一台单卡2080ti服务器可以用了。然而,所有的努力都没有白费。现在AnimeGAN受到了很多人的关注和喜爱,这让Chen和他的导师团队感到非常充实。要知道,连新海诚导演都转发过AnimeGAN的作品。然而,这个兴趣驱动的科研项目并不仅仅是为了好玩。在我们与团队的沟通中,他们表示:主要目标是以学术论文为里程碑,最大的期望是项目能够落地到实际应用中。接下来,AnimeGANv3即将推出。它将使用更小的网络规模,将缩小到只有4M左右;同时会解决AnimeGANv2的一些不足(比如v2保留了太多原图的细节),让生成的动画效果质量会更高。这也意味着AnimeGANv3将具备商业化的能力。在AnimeGANv3完成后,他们会从人脸到动画继续优化算法。OneMoreThing结尾,大家在开始前一定要注意。虽然AnimeGAN显示出来的效果比较好,但是有一个大前提:照片一定要高清,五官要尽量清晰!不然画风可能会变得怪怪的(作者亲测,欲哭无泪)……那么,你在漫画中长什么样呢?快去试试吧~在线Demo:https://huggingface.co/spaces/akhaliq/AnimeGANv2Colab版本:https://colab.research.google.com/drive/1jCqcKekdtKzW7cxiw_bjbbfLsPh-dEds?usp=sharing#scrollTo=niSP_i7FVC3cGitHub地址:https://github.com/TachibanaYoshino/AnimeGANv2https://github.com/bryandlee/animegan2-pytorch