
摘要
图像修复技术在生成对抗网络(GANs)的辅助下最近取得了显著的进步。然而,大多数方法往往面临完成结果结构不合理或模糊的问题。为了解决这一问题,本文提出了一种单阶段模型,该模型利用密集组合的空洞卷积来获得更大且更有效的感受野。得益于该网络的特性,我们可以更容易地恢复不完整图像中的大面积区域。为了更好地训练这一高效的生成器,除了常用的VGG特征匹配损失外,我们还设计了一种新的自引导回归损失,以专注于不确定区域并增强语义细节。此外,我们引入了几何对齐约束项来补偿预测特征与真实特征之间的像素级距离。我们还采用了具有局部和全局分支的判别器,以确保局部-全局内容的一致性。为了进一步提高生成图像的质量,在局部分支中引入了判别器特征匹配,动态最小化合成补丁与真实补丁之间中间特征的相似性。在多个公开数据集上的广泛实验表明,我们的方法优于当前最先进的方法。代码可在 https://github.com/Zheng222/DMFN 获取。