MaGNET: Uniforme Stichprobenerzeugung aus tiefen generativen Netzwerk-Manifolden ohne Neutrainierung

Tief generative Netzwerke (DGNs) werden umfassend in generativen adversarialen Netzwerken (GANs), Variationalen Autoencodern (VAEs) und deren Varianten eingesetzt, um die Datenmannigfaltigkeit und -verteilung zu approximieren. Allerdings sind Trainingsdaten häufig nicht gleichmäßig auf der Mannigfaltigkeit verteilt, was auf Kosten oder praktische Erwägungen bei der Datensammlung zurückzuführen ist. So enthält beispielsweise die CelebA-Datenbank einen erheblichen Anteil an lachenden Gesichtern. Diese Ungleichverteilungen werden bei der Stichprobenziehung aus dem trainierten DGN reproduziert, was nicht immer gewünscht ist, etwa im Hinblick auf Fairness oder Datenvervollständigung. Daraufhin entwickeln wir MaGNET, einen neuartigen und theoretisch fundierten Sampler für den Latentraum, der für jedes vortrainierte DGN eingesetzt werden kann und Stichproben erzeugt, die gleichmäßig auf der gelernten Mannigfaltigkeit verteilt sind. Wir führen eine Reihe von Experimenten auf verschiedenen Datensätzen und DGNs durch; beispielsweise erhöht die gleichmäßige Stichprobenziehung mittels MaGNET bei dem Stand der Technik, dem StyleGAN2, der auf dem FFHQ-Datensatz trainiert wurde, die Genauigkeit (precision) und Wiedergabe (recall) um 4,1 % bzw. 3,0 % und verringert die Geschlechtsbias um 41,2 %, ohne dass Labels benötigt oder erneut trainiert werden muss. Da eine gleichmäßige Verteilung nicht zwangsläufig einer gleichmäßigen semantischen Verteilung entspricht, untersuchen wir zudem separat, wie sich die semantischen Attribute der generierten Proben unter der MaGNET-Stichprobenziehung verändern.