
摘要
在本文中,我们提出了一种端到端的网络,称为Cycle-Dehaze,用于解决单幅图像去雾问题,该网络在训练过程中不需要成对的有雾图像及其对应的清晰图像。也就是说,我们通过输入未配对的清晰图像和有雾图像来训练网络。此外,所提出的方法不依赖于大气散射模型参数的估计。我们的方法通过结合循环一致性损失和感知损失来增强CycleGAN框架,以提高纹理信息恢复的质量并生成视觉效果更好的无雾图像。通常情况下,用于去雾的深度学习模型以低分辨率图像作为输入,并产生低分辨率输出。然而,在NTIRE 2018单幅图像去雾挑战赛中提供了高分辨率图像。因此,我们采用了双三次降尺度(bicubic downscaling)技术。从网络获得低分辨率输出后,我们利用拉普拉斯金字塔(Laplacian pyramid)将输出图像放大至原始分辨率。我们在NYU-Depth、I-HAZE和O-HAZE数据集上进行了实验。大量实验结果表明,所提出的方法在定量和定性方面均优于CycleGAN方法。