SAME++: Ein selbstüberwachter anatomischer eMbeddings-verbesserter Rahmen für die medizinische Bildregistrierung unter Verwendung stabiler Stichproben und regularisierter Transformation

Bildregistrierung ist eine grundlegende Aufgabe der medizinischen Bildanalyse. Idealisiert sollte die Registrierung darauf abzielen, semantisch entsprechende Voxel auszurichten, also dieselben anatomischen Lokalisationen. Herkömmliche Methoden optimieren jedoch oft Similaritätsmaße, die direkt auf Intensitäten oder handgefertigten Merkmalen basieren, welche über keine anatomische Semantik verfügen. Solche Similaritätsmaße können zu suboptimalen Lösungen führen, insbesondere bei großen Deformationen, komplexen anatomischen Unterschieden oder bilddatenübergreifenden Modaltitäten. In dieser Arbeit stellen wir eine schnelle und genaue Methode für die unsupervisierte 3D-medizinische Bildregistrierung vor, die auf einem selbstüberwachten anatomischen Embedding-Algorithmus (SAM) aufbaut und dichte anatomische Korrespondenzen zwischen zwei Bildern auf Voxel-Ebene berechnen kann. Wir bezeichnen unseren Ansatz als SAM-Enhanced Registration (SAME++), der die Bildregistrierung in vier Schritte zerlegt: affine Transformation, grobe Deformation, tiefes nichtparametrisches Transformationsmodell und Instanz-Optimierung. Durch die Nutzung von SAM-Embeddings verbessern wir diese Schritte, indem wir kohärentere Korrespondenzen finden und Merkmale mit stärkerer semantischer Anleitung bereitstellen. Wir evaluieren SAME++ umfassend anhand von mehr als 50 markierten Organen in drei anspruchsvollen inter-subjektiven Registrierungsaufgaben unterschiedlicher Körperregionen. Als vollständiger Registrierungsrahmen übertrifft SAME++ führende Methoden signifikant um 4,2 % bis 8,2 % in Bezug auf den Dice-Score und ist dabei um Größenordnungen schneller als numerische Optimierungsverfahren. Der Quellcode ist unter \url{https://github.com/alibaba-damo-academy/same} verfügbar.