
초록
생성적 적대 신경망(GANs)에서 성능을 향상시키기 위한 일반적인 히우리스틱은 판별자(discriminator)에 어떤 형태의 기울기 페널티(gradient penalty)를 적용하는 것이다. 이 기울기 페널티는 원래 워샤르슈타인 거리(Wasserstein distance) 공식화에 기반하여 제안되었다. 그러나 다른 GAN 공식화에서 기울기 페널티를 사용하는 것은 잘 정당화되지 않았다. 본 연구에서는 기대 마진 최대화(expected margin maximization)의 통합적 프레임워크를 제시하며, 다양한 기울기 페널티를 적용한 GAN들—예를 들어 워샤르슈타인 GAN, 표준 GAN, 최소제곱 GAN, 힌지 GAN 등—이 이 프레임워크로부터 유도될 수 있음을 보여준다. 우리의 결과는 기울기 페널티를 도입함으로써 큰 마진을 가진 분류기(즉, GAN 내에서 큰 마진을 갖는 판별자)를 유도함을 시사한다. 또한 기대 마진 최대화가 가짜(생성된) 샘플에서 기울기 소실(vanishing gradients) 문제를 완화하는 데 어떻게 기여하는지 설명한다. 본 프레임워크를 바탕으로, 힌지 손실과 함께 $L^\infty$ 기울기 노름 페널티를 제안하며, 프레셰 이너시션 거리(Fréchet Inception Distance) 기준으로 기존의 $L^2$-노름 페널티보다 일반적으로 동등하거나 더 우수한 생성 결과를 얻을 수 있음을 확인하였다.