
초록
최근, 영역 간 이미지-이미지 변환을 위한 조건부 생성적 적대 네트워크(Generative Adversarial Networks, GANs)가 많은 발전을 이룩하였습니다. 작업의 복잡도에 따라 조건부 GAN을 훈련시키기 위해서는 수천에서 수백만 개의 라벨된 이미지 쌍이 필요합니다. 그러나 인간의 라벨링은 비용이 많이 들며, 때로는 실제로 불가능할 수도 있고 대량의 데이터가 항상 이용 가능하지 않을 수 있습니다. 자연어 번역에서의 듀얼 학습에서 영감을 받아, 두 영역에서 얻은 두 세트의 라벨되지 않은 이미지를 사용하여 이미지 변환기를 훈련시킬 수 있는 새로운 듀얼-GAN 메커니즘을 개발하였습니다. 우리의 구조에서는 기본 GAN이 영역 U의 이미지를 영역 V의 이미지로 변환하는 것을 배우고, 듀얼 GAN은 이 작업을 역으로 수행하는 것을 배웁니다. 기본 및 듀얼 작업으로 이루어진 폐쇄 루프는 어느 한 영역에서 온 이미지를 변환하고 다시 재구성할 수 있게 합니다. 따라서 이미지의 재구성 오류를 고려한 손실 함수를 사용하여 변환기를 훈련시킬 수 있습니다. 라벨되지 않은 데이터를 사용한 여러 이미지 변환 작업 실험 결과, DualGAN이 단일 GAN보다 상당한 성능 향상을 보였습니다. 일부 작업에서는 DualGAN이 완전히 라벨된 데이터로 훈련된 조건부 GAN과 비교해 유사하거나 약간 더 나은 결과를 얻기도 하였습니다.