近日,来自AmazonOne的研究人员提出了一种训练GAN的框架,可以显式控制生成的图像。该框架能够通过设置精确的属性,如年龄、姿势、表情等来控制生成的图像。AmazonOne团队最近提出了一种GAN训练框架,可以对生成的图像进行显式的属性控制,可以控制生成的图像通过设置确切的属性,如年龄、姿势、表情等。这篇论文发表在arxiv上,谷歌磁盘中有相应的补充说明。当前大多数编辑由GAN生成的图像的方法通过利用在标准GAN训练后隐式获得的潜在空间解构属性来实现部分控制。这种方法可以改变某些属性的相对强度,但不能明确设置它们的值。最近提出的方法旨在明确和准确地控制人脸属性,使用可变形的3D人脸模型在GAN中实现细粒度控制能力。与以前的方法不同,这种控制不限于可变形的3D人脸模型参数,可以扩展到人脸域之外。使用对比学习,获得了具有显式分解潜在空间的GAN。这种分解用于训练控制编码器,将人类可解释的输入映射到适当的潜在向量,从而允许显式控制。在人脸领域,研究人员展示了对身份、年龄、姿势、表情、头发颜色和光线的控制。他们还展示了我们的框架在人像和狗图像生成领域的控制能力,证明新方法在质量和数量上都达到了SOTA。在第一阶段,每个批次的每个属性都由一对共享相应子向量的潜在向量构成。除了对抗性损失之外,批处理中的每个图像都以对比方式、属性方式与所有其他图像进行比较,同时考虑其子向量是相同还是不同。在第二阶段,编码器被训练将可解释的参数映射到合适的潜在向量。在推理阶段,通过将第k个编码器输入设置为所需值来实现对属性k的显式控制。对光照、角度和表情的显式控制效果:研究人员使用ArcFace通过生成10K个图像对来提取生成图像的嵌入向量,这些图像对共享ID属性和具有不同姿势、光照和表情属性的图像。控制头发颜色和年龄的影响:为了验证模型确实对输出有明确的控制,研究人员对控制精度进行了比较。从FFHQ中随机选择10K个图像,预测它们的属性以生成真实图像中出现的可行属性池。也可以在保持其他属性不变的情况下改变绘画的艺术风格:对于喜欢养宠物的人来说,还可以明确控制生成的狗图像的一些属性:同时,不能只控制一个属性改了,还可以同时控制多个属性值:在测试了AmazonOne的可控GAN模型后,觉得现在的美颜工具非常好用,看来以后还会有更多惊艳的功能期待未来。
