Mehrskalige kontinuierliche Normalisierungsflüsse

Neuere Arbeiten haben gezeigt, dass neuronale gewöhnliche Differentialgleichungen (ODEs) als generative Modelle für Bilder unter der Perspektive kontinuierlicher Normalisierungsflüsse (Continuous Normalizing Flows, CNFs) eingesetzt werden können. Solche Modelle ermöglichen eine exakte Berechnung der Likelihood sowie eine invertierbare Generierung und Dichteschätzung. In dieser Arbeit stellen wir eine Multi-Resolution-Variante solcher Modelle (MRCNF) vor, indem wir die bedingte Verteilung über die zusätzlichen Informationen charakterisieren, die zur Erzeugung eines feinen Bildes benötigt werden, das mit dem groben Bild konsistent ist. Wir führen eine Transformation zwischen Auflösungen ein, die eine unveränderte Log-Likelihood gewährleistet. Wir zeigen, dass dieser Ansatz für verschiedene Bilddatensätze vergleichbare Likelihood-Werte erzielt, mit verbesserter Leistung bei höheren Auflösungen, geringerer Parameteranzahl und nur einer GPU. Darüber hinaus untersuchen wir die Out-of-Distribution-Eigenschaften von (Multi-Resolution-) kontinuierlichen Normalisierungsflüssen und stellen fest, dass diese den Eigenschaften anderer likelihood-basierter generativer Modelle ähneln.