今年1月OpenAI公布的Dall-E可谓惊艳。它只需要输入一段文字,就可以根据内容输出一张图片。连吴恩达老师都忍不住点赞。例如,让它设计一个“像牛油果一样的座椅”。但是OpenAI在官网上只设置了几个固定的模板,而且代码没有开源,所以用户无法使用AI来设计更多的图片。不过现在有个好消息,华人小弟PhilipWang复刻了一个PyTorch版的Dall-E,名字叫DeepDaze。他使用了OpenAI的CLIP和斯坦福大学的Siren,它们可以在个人电脑上运行。只要在命令行输入一段描述,这个AI就可以画出各种图画。就像青山上的薄雾:或“草地上的碎盘子”:你认为它实际上是如何工作的?开发该项目的PhilipWang,就是今年年初宣布要重制Dall-E的人。没想到,不到3个月,这个项目就变得如此强大,在GitHub上获得了1.1kstars。安装和使用DeepDaze可以直接通过pip安装:pipinstalldeep-daze安装完成后,输入以下命令运行。imagineTEXT其中imagine是命令,TEXT必须是不超过77个字符的英文描述,是可选参数,可以加也可以不加。如果我们要生成文章开头的山间雾气图片,输入以下命令:imaginemistovergreenhills可以添加的参数有:--deeper,以获得更高的图像质量;--num-layers,指定网络的层数...更多用法可以在GitHub项目主页上找到。如果担心AI的想象力太天马行空,可以指定一张图片,让AI根据这张图片进行想象。这将确保图像不会太离谱。具体命令如下:imagine'description'--start-image-path/path/to/picture.jpg假设我们给AI一张披萨的图片,让它想象“上面有青椒的样子”。然后我们将上述命令中的描述更改为“Apizzawithgreenpepper”。你认为这一切都是关于DeepDaze的吗?其实它还有更强大的全身剧情模式。只需设置--create_story=True即可解锁此模式并取消77个字符的限制。项目作者将美国诗人罗伯特·弗罗斯特的诗《雪夜林边歇马》录入其中,得到一个mp4视频。至此,我有点想让AI画出“七彩黑”,但贫穷限制了我的操作。因为必须安装CUDA才能使用DeepDaze,而且最好在显存不少于8GB的GPU上获得好的效果。而且我现在根本买不起Nvidia显卡。项目地址:https://github.com/lucidrains/deep-daze