Unüberwachte medizinische Bildübersetzung mit adversarialen Diffusionsmodellen

Die Imputation fehlender Bilder mittels Quell-zu-Ziel-Modalitätsübersetzung kann die Vielfalt in medizinischen Bildgebungsschemata verbessern. Ein verbreiteter Ansatz zur Synthese von Zielbildern basiert auf einer One-Shot-Abbildung mittels generativer adversarialer Netzwerke (GAN). Dennoch können GAN-Modelle, die die Bildverteilung implizit charakterisieren, unter begrenzter Stichprobenfidelität leiden. Hier präsentieren wir eine neuartige Methode namens SynDiff, die auf adversarialer Diffusionsmodellierung basiert und eine verbesserte Leistung bei der medizinischen Bildübersetzung ermöglicht. Um eine direkte Entsprechung der Bildverteilung zu erfassen, nutzt SynDiff einen bedingten Diffusionsprozess, der Rauschen und Quellbilder schrittweise auf das Zielbild abbildet. Zur schnellen und genauen Bildgenerierung während der Inferenz werden große Diffusionsschritte mit adversarialen Projektionen in Richtung umgekehrter Diffusion eingesetzt. Um das Training auf ungepaarten Datensätzen zu ermöglichen, wird eine zykluskonsistente Architektur entworfen, die gekoppelte diffusive und nicht-diffusive Module beinhaltet, die bidirektional zwischen zwei Modalitäten übersetzen. Umfassende Bewertungen werden hinsichtlich der Leistungsfähigkeit von SynDiff gegenüber konkurrierenden GAN- und Diffusionsmodellen bei der mehrkontrastiven MRT sowie der MRT-CT-Übersetzung vorgestellt. Unsere Demonstrationen zeigen, dass SynDiff sowohl quantitativ als auch qualitativ eine überlegene Leistung im Vergleich zu konkurrierenden Baselines erzielt.