Flow Matching für generative Modellierung

Wir stellen ein neues Paradigma für generative Modellierung vor, das auf Continuous Normalizing Flows (CNFs) basiert und es uns ermöglicht, CNFs in bisher ungeahntem Umfang zu trainieren. Konkret führen wir den Begriff des Flow Matching (FM) ein, einen simulationsfreien Ansatz zum Training von CNFs, der auf der Regression von Vektorfeldern fester bedingter Wahrscheinlichkeitspfade beruht. Flow Matching ist mit einer allgemeinen Familie von Gausschen Wahrscheinlichkeitspfaden kompatibel, die zwischen Rausch- und Datensamples transformieren – wobei bestehende Diffusionspfade als spezielle Fälle enthalten sind. Interessanterweise zeigen wir, dass die Anwendung von FM mit Diffusionspfaden eine robuster und stabiler Alternative zum Training von Diffusionsmodellen darstellt. Darüber hinaus eröffnet Flow Matching die Möglichkeit, CNFs auch mit anderen, nicht-diffusiven Wahrscheinlichkeitspfaden zu trainieren. Ein besonders interessanter Fall ist die Verwendung der Optimal Transport (OT)-Verschiebungsinterpolation zur Definition der bedingten Wahrscheinlichkeitspfade. Diese Pfade sind effizienter als Diffusionspfade, ermöglichen schnellere Training- und Sampling-Prozesse und führen zu einer besseren Generalisierung. Die Ausbildung von CNFs mittels Flow Matching auf ImageNet erzielt konsistent bessere Ergebnisse als alternative, auf Diffusion basierende Methoden hinsichtlich sowohl der Likelihood als auch der Stichprobengüte und erlaubt zudem schnelle und zuverlässige Stichproben generierung mittels Standard-Nummerik-ODE-Lösern.