Verfeinerung tiefer generativer Modelle über Diskriminator-Gradientenfluss

In den letzten Jahren hat die tiefe generative Modellierung beeindruckende Fortschritte erzielt, sodass es heute alltäglich ist, simulierten Samples (z. B. Bilder) zu beobachten, die realen Daten aus der Welt äußerst ähnlich sehen. Dennoch ist die Generierungsqualität für ein gegebenes Modell im Allgemeinen unkonstant und kann sich stark zwischen einzelnen Samples unterscheiden. Wir stellen DGflow (Discriminator Gradient flow) vor, eine neue Technik, die die Qualität generierter Samples durch den Gradientenfluss von entropieregulierten f-Divergenzen zwischen der echten und der generierten Datensverteilung verbessert. Der Gradientenfluss nimmt die Form einer nichtlinearen Fokker-Planck-Gleichung an, die leicht durch Stichprobenerzeugung aus dem entsprechenden McKean-Vlasov-Prozess simuliert werden kann. Durch die Verbesserung schlechter Samples vermeidet unsere Methode die verschwenderische Stichprobenabweisung, die in früheren Ansätzen (DRS & MH-GAN) verwendet wurde. Im Gegensatz zu existierenden Arbeiten, die sich auf bestimmte GAN-Varianten konzentrieren, zeigen wir, dass unser Verfeinerungsansatz auf GANs mit vektorwertigen Kritikern anwendbar ist und sogar auf andere tiefe generative Modelle wie VAEs und Normalizing Flows übertragen werden kann. Empirische Ergebnisse auf mehreren synthetischen, Bilddaten- und Textdatensätzen demonstrieren, dass DGflow eine erhebliche Verbesserung der Qualität generierter Samples für eine Vielzahl von generativen Modellen ermöglicht und die derzeit besten Methoden, nämlich Discriminator Optimal Transport (DOT) und Discriminator Driven Latent Sampling (DDLS), übertrifft.