LatentKeypointGAN: Bilder durch latente Schlüsselpunkte steuern

Generative Adversarial Networks (GANs) haben in der Bildgenerierung fotorealistische Qualität erreicht. Allerdings bleibt die Frage, wie man den Bildinhalt am besten steuern kann, eine offene Herausforderung. Wir stellen LatentKeypointGAN vor, ein zweistufiges GAN, das end-to-end auf dem klassischen GAN-Ziel trainiert wird und intern auf einem Satz von Raumkeypoints konditioniert ist. Diese Keypoints verfügen über zugehörige Erscheinungs-Embeddings, die jeweils die Position und den Stil der generierten Objekte und deren Teile steuern. Eine wesentliche Schwierigkeit, die wir durch geeignete Netzarchitekturen und Trainingsmethoden angehen, besteht darin, das Bild in räumliche und Erscheinungsfaktoren zu entkoppeln, ohne domänenspezifisches Wissen oder Supervisionszeichen zu verwenden. Wir zeigen, dass LatentKeypointGAN einen interpretierbaren latenten Raum bereitstellt, der verwendet werden kann, um die generierten Bilder durch Neupositionierung und Austausch von Keypoint-Embeddings zu rearrangieren, wie zum Beispiel Porträts zu erzeugen, indem man Augen, Nase und Mund aus verschiedenen Bildern kombiniert. Darüber hinaus ermöglicht die explizite Generierung von Keypoints und passenden Bildern eine neue, auf GAN basierende Methode zur unüberwachten Keypoint-Detektion.