Regionenspezifische Diffeomorphe Metrische Abbildung

Wir stellen einen regionspezifischen diffeomorphen Metrikabbildungsansatz (RDMM) vor. RDMM ist nichtparametrisch und schätzt räumlich-zeitliche Geschwindigkeitsfelder, die die gesuchte räumliche Transformation parametrisieren. Die Regularisierung dieser Geschwindigkeitsfelder ist notwendig. Allerdings verwenden existierende nichtparametrische Registrierungsansätze, wie z.B. das Modell der großen Verschiebungen mit diffeomorpher Metrikabbildung (LDDMM), eine feste, räumlich invariante Regularisierung, während unser Modell einen räumlich variablen Regularisierer mit dem geschätzten Geschwindigkeitsfeld advektiert, wodurch ein räumlich-zeitlicher Regularisierer natürlicherweise an sich verformende Objekte angehängt wird. Wir untersuchen eine Familie von RDMM-Registrierungsansätzen: 1) ein Registrierungsmodell, bei dem Regionen mit separaten Regularisierungen vorgegeben sind (z.B. in einem Atlasraum), 2) ein Registrierungsmodell, bei dem ein allgemeiner räumlich variabler Regularisierer geschätzt wird, und 3) ein Registrierungsmodell, bei dem der räumlich variabel regulierte Regularisierer durch ein von Anfang bis Ende trainiertes tiefes Lernmodell (Deep Learning, DL) erhalten wird. Wir geben eine variationelle Herleitung des RDMM und zeigen, dass das Modell diffeomorphe Transformationen im Kontinuum garantieren kann und dass LDDMM eine spezielle Instanz von RDMM ist. Um die Leistungsfähigkeit von RDMM zu evaluieren, führen wir Experimente durch: 1) an synthetischen 2D-Daten und 2) an zwei 3D-Datensätzen: Knie-Magnetresonanztomografien (MRTs) aus der Osteoarthritis Initiative (OAI) und Computertomografien (CTs) des Lungenbereichs. Die Ergebnisse zeigen, dass unser Framework den Stand der Technik in Bezug auf Bildregistrierung erreicht und zusätzliche Informationen durch einen gelernten räumlich-zeitlichen Regularisierer bereitstellt. Darüber hinaus ermöglicht unser tiefes Lernverfahren sehr schnelle Schätzungen sowohl für RDMM als auch für LDDMM. Unser Code wird Open Source veröffentlicht werden. Der Code ist unter https://github.com/uncbiag/registration verfügbar.