
초록
우리는 생성적 적대 네트워크의 새로운 훈련 방법론을 설명합니다. 이 방법론의 핵심 아이디어는 생성기와 판별기를 점진적으로 확장하는 것입니다: 낮은 해상도에서 시작하여, 훈련이 진행됨에 따라 점점 더 미세한 세부 사항을 모델링하는 새로운 층을 추가합니다. 이 방법은 훈련 속도를 높이고 매우 안정적으로 만드는데 기여하며, 예를 들어 CelebA 이미지의 1024x1024 해상도로 전례 없는 품질의 이미지를 생성할 수 있게 합니다. 또한, 생성된 이미지의 다양성을 증가시키는 간단한 방법을 제안하고, 비지도학습 CIFAR-10에서 기록적인 인셉션 스코어 8.80을 달성하였습니다. 또한, 생성기와 판별기 사이의 부정적인 경쟁을 방지하기 위해 중요한 몇 가지 구현 세부 사항을 설명합니다. 마지막으로, 이미지 품질과 다양성 측면에서 GAN 결과를 평가하기 위한 새로운 지표를 제안합니다. 추가적으로, 우리는 CelebA 데이터셋의 고품질 버전을 구성하였습니다.