TransMorph: Transformer für die unsupervisierte medizinische Bildregistrierung

In den letzten zehn Jahren standen convolutionale Neuronale Netze (ConvNets) im Mittelpunkt der Forschung im Bereich der medizinischen Bildanalyse. Doch die Leistungsfähigkeit von ConvNets kann durch die unzureichende explizite Berücksichtigung langreichweiter räumlicher Beziehungen innerhalb eines Bildes eingeschränkt sein. In jüngster Zeit wurden Vision-Transformer-Architekturen vorgeschlagen, um die Schwächen von ConvNets zu überwinden und in zahlreichen Anwendungen der medizinischen Bildgebung führende Ergebnisse zu erzielen. Transformers könnten ein vielversprechender Kandidat für die Bildregistrierung sein, da ihr erheblich größerer Rezeptivfeldbereich eine präzisere Erfassung der räumlichen Korrespondenz zwischen bewegtem und festem Bild ermöglicht. In dieser Arbeit präsentieren wir TransMorph, ein hybrides Transformer-ConvNet-Modell für die volumetrische medizinische Bildregistrierung. Zudem stellen wir diffeomorphe und bayessche Varianten von TransMorph vor: Die diffeomorphen Varianten gewährleisten topologieerhaltende Deformationen, während die bayessche Variante eine gut kalibrierte Abschätzung der Registrierungsunsicherheit liefert. Die vorgeschlagenen Modelle wurden umfassend anhand von 3D-medizinischen Bildern aus drei Anwendungen validiert: inter-patienten- und atlas-zu-patienten-Brain-MRI-Registrierung sowie Phantom-zu-CT-Registrierung. Die Modelle werden im Vergleich zu einer Vielzahl bestehender Registrierungsmethoden und Transformer-Architekturen evaluiert. Qualitative und quantitative Ergebnisse zeigen, dass das vorgeschlagene Transformer-basierte Modell eine erhebliche Leistungssteigerung gegenüber den Baseline-Methoden erzielt und somit die Wirksamkeit von Transformers für die medizinische Bildregistrierung belegt.