
최근 생성적 적대 네트워크(GANs)의 도움으로 이미지 인페인팅 기술이 유망한 개선을 보여주고 있습니다. 그러나 대부분의 방법은 합리적이지 않은 구조나 흐림 현상이 있는 완성 결과를 자주 겪었습니다. 이 문제를 완화하기 위해 본 논문에서는 더 큰 그리고 효과적인 수용 영역을 얻기 위해 희소화된 컨볼루션(dilated convolutions)의 밀집 조합을 활용하는 단일 단계 모델을 제시합니다. 이 네트워크의 특성을 통해 불완전한 이미지에서 큰 영역을 더욱 쉽게 복원할 수 있습니다. 효율적인 생성자를 더 잘 훈련시키기 위해, 자주 사용되는 VGG 특징 일치 손실 외에도 불확실한 영역에 집중하고 의미론적 세부 정보를 강화하기 위한 새로운 자기 안내 회귀 손실(self-guided regression loss)을 설계하였습니다. 또한, 예측 특징과 실제 특징 사이의 픽셀 기반 거리를 보완하기 위해 기하학적 정렬 제약 항목(geometrical alignment constraint item)을 고안하였습니다. 우리는 또한 지역 및 전역 분기를 갖춘 판별자를 사용하여 지역-전역 내용 일관성을 보장합니다. 생성된 이미지의 품질을 더욱 높이기 위해, 지역 분기에 대한 판별자 특징 일치(discriminator feature matching)가 도입되어 합성 패치와 실제 패치 간 중간 특징들의 유사성을 동적으로 최소화합니다. 여러 공개 데이터셋에 대한 광범위한 실험 결과, 우리의 접근 방식이 현재 최신 방법들을 능가함을 입증하였습니다. 코드는 https://github.com/Zheng222/DMFN에서 제공됩니다.