
우리는 생성적 적대 네트워크(GAN)의 모드 붕괴와 기울기 소실을 완화하기 위한 효과적인 학습 알고리즘을 소개합니다. 우리의 시스템에서는 생성자를 오토인코더(AE)로 제약합니다. 우리는 AE에서 재구성된 샘플을 판별자에게 "진짜" 샘플로 간주하도록 하는 공식을 제안합니다. 이는 AE의 수렴과 판별자의 수렴을 결합하여, 판별자의 수렴 속도를 효과적으로 늦추고 기울기 소실을 줄입니다. 특히, 생성자를 개선하기 위해 두 가지 새로운 거리 제약 조건을 제안합니다. 첫째, 잠재 데이터 거리 제약 조건(latent-data distance constraint)은 잠재 샘플 간의 거리와 해당 데이터 샘플 간의 거리 사이의 일관성을 강제하는 것입니다. 이 제약 조건은 생성자가 모드 붕괴를 명시적으로 방지하도록 사용됩니다. 둘째, 판별자 점수 거리 제약 조건(discriminator-score distance constraint)은 판별자 점수를 통해 생성된 샘플의 분포가 진짜 샘플의 분포와 일치하도록 맞추는 것입니다. 이 제약 조건은 생성자가 진짜 샘플과 유사한 샘플을 합성하도록 안내하는 데 사용됩니다. 우리가 제안한 이러한 거리 제약 조건을 사용하는 GAN, 즉 Dist-GAN은 합성, MNIST, MNIST-1K, CelebA, CIFAR-10 및 STL-10 벤치마크 데이터셋에서 최신 방법론보다 더 나은 결과를 달성할 수 있습니다. 우리의 코드는 연구 목적으로 여기(https://github.com/tntrung/gan)에 공개되어 있습니다.