本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。AI给老照片上色最近很火,但是上色真的准确吗?有人对此做了一个实验,将20世纪初俄罗斯的彩色照片脱色,并与AI着色的结果进行对比。在这样的对比结果下,这位网友直截了当地指出:AI总是倾向于选择不鲜艳的颜色,让天空总是灰蒙蒙的,人们的衣服很简单,地上满是灰尘和泥土。但更进一步,她还担心其他事情——人工智能会加剧人们对过去“乏味和死气沉沉”的偏见。她认为给老照片上色应该由人类专家来完成。人工智能,不??。帖子一出,Reddit上的机器学习社区和历史爱好者社区就展开了一场大辩论。不到一天的时间,就建起了1000多栋楼,总计35000个赞。不过后来,原贴因为争论太多,被版主删了……不同社区的网友们,到底在争论什么?技术圈:你的算法靠谱吗?机器学习组的选手首先提问:你们用的算法是StateoftheArt吗?乍一看,损失函数只是简单地设计用来计算周围像素的均方误差(MSE),这会促使AI选择低饱和度的颜色。有人提出了改进的想法。色调、饱和度和亮度的差异应该分别加权,然后“惩罚”异常值以减少算法选择低饱和度颜色的动机。懂摄影的选手指出,彩色照片去除RGB通道≠黑白相机原件。SigmaSD1Merill和LeicaMMonochrom等专业设备传感器捕捉更大的动态范围。为了方便起见,目前的数据集都是彩色图像脱色后做的,没见过真正的单色相机原图用于训练。不满意的人说黑白照片具有误导性。看看这一排甜椒。去除颜色后,纹理是一样的。人类分不清哪些是红色哪些是绿色。有人认为,人们不能将AI视为魔法或奇迹,商业公司也不能将AI生成的内容当成事实来出售。这是一个商业道德问题,而不是人工智能道德问题。Craftsman:最重要的是文化是照片着色爱好者的聚集地。人们认为手动给旧照片上色最有价值的部分实际上是收集信息。在寻找照片中事物应有的颜色时,总有一个很酷的历史教训要吸取。其他人则指出,在线发布AI彩色照片是为了庆祝技术进步。老照片背后的人文价值被忽略了。有人认为AI很擅长计算光照和阴影,但挑选颜色仍然需要人类专家的指导。AI应该像实习生一样成为人类的助手,而不是人把所有的工作都扔给AI。人类与AI协作事实上,已经有人类引导AI给照片上色的研究。该研究发表在SIGGRAPH2017会议上。在演示中,人类可以在灰度图像的任意像素上指定一种颜色,AI会自动计算适用范围并实时给出预览。该算法使用卷积神经网络(CNN)、灰度图像和人类指定的颜色作为输入自动计算颜色分布。训练集包含130万张彩色照片的脱色版本,其中包括许多著名照片。人类用户平均在每张照片上花费1分钟来使用颜色选择器。该模型是使用Caffe开发的,后来补充了PyTorch版本,该版本已在Github上开源。支持CPU或GPU计算,接下来就可以玩了。Github地址:https://github.com/junyanz/interactive-deep-colorization论文地址:https://arxiv.org/abs/1705.02999SIGGRAPH演讲:https://www.youtube.com/watch?v=rp5LUSbdsys
