当前位置: 首页 > 科技观察

无损放大图片和视频?这两款AI工具值得拥有

时间:2023-03-17 14:54:30 科技观察

作为一名编辑,除了文字作品的主要工作内容外,往往还有一个非常重要的问题需要考虑:插画。满是文字的文章肯定不如图文的文章吸引眼球,更何况现在这个视频为主的时代,所以作者每次写文章都要慎重选择无版权的图片网站,让图片和文章主要思想是相关的,最好是高分辨率的图像。但意外总是有的。有时候遇到分辨率不够但最合适的图片,就很苦恼。直接在文章中插入一张低分辨率的图片,会明显感觉到视觉上的不足。舒服,虽然PS甚至Windows自带的绘图工具都可以修改图片分辨率,但是强行拉伸的结果只会是:图片很模糊。可以看到图像经过拉伸后,图像边缘出现了明显的毛刺。有什么办法可以无损放大图片?还别说,还真有,GitHub上的这个项目“waifu2x”就可以做到。项目地址为https://github.com/nagadomi/waifu2x。有兴趣的可以研究一下。网页地址为http://waifu2x.udp.jp/。闲话少说,这里放一张使用waifu2x和普通拉伸后的对比图(左边是拉伸过的,右边是使用waifu2x的效果)。可以看到,使用waifu2x放大图片后,“5G”边缘的毛刺不再明显。虽然部分区域还存在噪音问题,但总体来说,效果比直接拉伸要好很多。那么为什么waifu2x可以无损放大图片呢?这是因为waifu2x使用了一种叫做SR-CNN的卷积算法。传统上,图像超分辨率的研究是在输入低分辨率图像(LR)时,如何得到高分辨率图像(HR)。传统的图像插值算法可以在一定程度上达到这种效果,如最近邻插值、双线性插值和双三次插值等,但这些算法得到的高分辨率图像并不理想。SR-CNN是第一个使用CNN结构(即基于深度学习)的端到端超分辨率算法。它用深度学习实现了整个算法过程,效果优于传统的多模块集成方式。SR-CNN流程如下:首先,输入预处理。使用双三次算法将输入的低分辨率LR图像放大,放大到目标尺寸。那么接下来算法的目标就是将输入的模糊LR图像通过卷积网络进行处理,得到超分辨率的SR图像,使其尽可能接近原图的高分辨率HR图像。与Bicubic、SC、NE+LLE、KK、ANR、A+等超分辨率算法相比,SR-CNN在大部分指标上表现最好,恢复速度也名列前茅,RGB通道的联合训练效果是最好的。这意味着与照片相比,waifu2x在放大插图(你最喜欢的二维图片)时会更有优势。关于SR-CNN的卷积算法,可以去https://arxiv.org/abs/1501.00092了解更多详情。既然图片可以放大无损,那么视频呢?结果当然是可行的,但是这次使用的工具叫做TopazGigapixelAIforVideo。该软件通过数千个视频进行训练,并从多个输入视频帧中组合而成。信息,将视频升级到8K分辨率,具有真实的细节和运动一致性。作为一款人工智能软件,它需要一台速度很快的电脑。推荐的系统配置是32GBRAM加上具有6GB或更大显存的NVIDIA显卡。虽然在旧电脑上勉强可以运行,但速度会很慢。那么TopazGigapixelAIforVideo是如何对视频进行放大的呢?其实你在安装的时候会发现这个软件会安装TensorFlow库和cuDNN库,所以很明显这个软件使用了基于深度学习的卷积神经网络来对每一帧进行处理,而CUDA单元一路跑(不然不会这么慢)。熟悉显卡的老哥们都知道,显卡作为电脑主机的重要组成部分,是电脑进行数模信号转换的设备,承担着输出显示图形的任务。显卡连接在电脑主板上,将电脑的数字信号转换成模拟信号显示在显示器上。同时显卡还具备图像处理能力,可以辅助CPU工作,提升整体运行速度。对于从事专业平面设计的人来说,显卡非常重要。民用和军用显卡的图形芯片供应商主要有AMD和NVIDIA(英特尔今年也加入其中)。GPU的组成比较简单,计算单元数量多,流水线超长。特别适用于处理大量的统一数据,如矩阵乘法和加法。因此,显卡在AI领域的应用变得非常广泛。CUDA是NVIDIA的并行计算框架,只能用于自家GPU。只有安装了这个框架,才能进行复杂的并行计算。主流的深度学习框架都是基于CUDA进行GPU并行加速的,Tensorflow也不例外。不幸的是,TopazGigapixelAIforVideo的价格仍然比较昂贵。接近200美元的价格可以让很多人望而却步,但是对于一些古风影视作品的修复或者修复还是相当有用的。现在你可以在B站上找到的相当一部分【4K修复】视频都是基于这个软件制作的。现在想想,AI的出现确实解决了很多生活中的实际问题。如果没有卷积神经网络的快速发展,观看高清翻拍的古代影视作品可能只存在于想象中。