
摘要
条件生成对抗网络(GANs)在跨域图像到图像翻译方面已取得显著进展。根据任务复杂度的不同,训练一个条件GAN需要数千到数百万对标注图像。然而,人工标注成本高昂,甚至不切实际,且大量数据并不总是可用。受自然语言翻译中对偶学习的启发,我们开发了一种新颖的双GAN机制,该机制使得图像翻译器可以从两个域中的两组未标注图像进行训练。在我们的架构中,主GAN学习将域U中的图像翻译为域V中的图像,而对偶GAN则学习逆向任务。主任务和对偶任务形成的闭环允许从任一域中的图像进行翻译并重建。因此,可以使用一种考虑图像重建误差的损失函数来训练这些翻译器。多个使用未标注数据的图像翻译任务实验表明,双GAN相比单个GAN具有显著的性能提升。对于某些任务,双GAN甚至可以达到与完全标注数据训练的条件GAN相当或略优的结果。