
摘要
基于感知损失和对抗性损失训练的单图像超分辨率(SISR)网络,相较于采用以失真为导向的损失函数(如L1或L2)的网络,能够生成对比度更高的输出结果。然而,已有研究表明,仅使用单一感知损失难以准确恢复图像中局部变化多样、结构复杂的形状,常导致产生不期望的伪影或不自然的细节。为此,研究者尝试结合多种损失函数,如感知损失、对抗性损失与失真损失,但如何选取最优的损失组合仍是一个具有挑战性的问题。针对这一问题,本文提出一种新型SISR框架,该框架能够为图像的不同区域自适应地分配最优目标函数,从而在高分辨率输出的整体区域内生成更为合理的结果。具体而言,该框架包含两个模型:一是预测模型,用于根据给定的低分辨率(LR)输入推断出最优目标函数分布图;二是生成模型,根据目标函数分布图生成相应的高分辨率(SR)输出。生成模型在本文提出的“目标轨迹”(objective trajectory)上进行训练,该轨迹代表一组关键的损失目标,使得单一网络能够学习到对应于不同损失组合的多样化超分辨率结果。预测模型则通过低分辨率图像与其对应最优目标分布图的配对数据进行训练,这些最优目标分布图是从目标轨迹中搜索得到的。在五个基准数据集上的实验结果表明,所提方法在LPIPS、DISTS、PSNR和SSIM等指标上均优于当前最先进的感知驱动型超分辨率方法。视觉效果对比进一步验证了本方法在感知质量导向的图像重建方面具有显著优势。相关代码与模型已开源,地址为:https://github.com/seungho-snu/SROOE。