2 个月前

使用生成对抗网络实现照片级单图像超分辨率重建

Christian Ledig; Lucas Theis; Ferenc Huszar; Jose Caballero; Andrew Cunningham; Alejandro Acosta; Andrew Aitken; Alykhan Tejani; Johannes Totz; Zehan Wang; Wenzhe Shi
使用生成对抗网络实现照片级单图像超分辨率重建
摘要

尽管在使用更快、更深的卷积神经网络进行单图像超分辨率方面取得了突破性的进展,但一个核心问题仍未得到解决:如何在大倍率放大时恢复更精细的纹理细节?基于优化的超分辨率方法的行为主要由目标函数的选择决定。近期的研究大多集中在最小化均方重建误差上。虽然由此产生的估计值具有较高的峰值信噪比,但它们通常缺乏高频细节,在感知质量上也不尽如人意,即无法达到高分辨率图像所期望的真实度。本文中,我们提出了一种用于图像超分辨率(SR)的生成对抗网络(GAN),即SRGAN。据我们所知,这是首个能够推断出4倍放大因子下的照片级自然图像的框架。为了实现这一目标,我们提出了一种感知损失函数,该函数由对抗损失和内容损失组成。对抗损失通过训练一个区分超分辨率图像和原始照片级图像的判别网络,将我们的解决方案推向自然图像流形。此外,我们使用了一种基于感知相似性的内容损失,而不是像素空间中的相似性。我们的深度残差网络能够在公共基准测试中从严重降采样的图像中恢复出照片级真实的纹理。广泛的平均意见评分(MOS)测试显示,使用SRGAN在感知质量上取得了显著提升。SRGAN获得的MOS分数更接近于原始高分辨率图像的分数,而远优于任何现有最先进方法所得的结果。