EfficientMorph: Parameter-effiziente Transformer-basierte Architektur für die Registrierung von 3D-Bildern

Transformer haben sich als die neueste und fortschrittlichste Architektur im Bereich der medizinischen Bildregistrierung etabliert, indem sie die begrenzten Rezeptivfelder von Faltungsneuralnetzen (CNNs) adressieren und die Gradienteninstabilität in tieferen Modellen überwinden. Trotz ihrer Erfolge erfordern transformerbasierte Modelle erhebliche Ressourcen für das Training, einschließlich Daten, Speicherplatz und Rechenleistung, was ihre Anwendbarkeit für Endbenutzer mit begrenzten Ressourcen einschränken kann. Insbesondere weisen bestehende transformerbasierte 3D-Bildregistrierungsarchitekturen zwei kritische Lücken auf, die ihre Effizienz und Wirksamkeit herausfordern. Erstens reduzieren fensterbasierte Aufmerksamkeitsmechanismen die quadratische Komplexität des vollständigen Aufmerksamkeitsmechanismus, indem sie sich auf lokale Regionen konzentrieren, aber sie haben oft Schwierigkeiten, sowohl lokale als auch globale Informationen effektiv zu integrieren. Zweitens stellt die Granularität der Tokenisierung, ein entscheidender Faktor für die Registrierungsgenauigkeit, eine Leistungskompromiss dar: kleinere Voxel-Größe-Token verbessern die Detailgenauigkeit, sind aber mit erhöhter rechnerischer Komplexität, höherem Speicherverbrauch und einem größeren Überanpassungsrisiko verbunden.Wir stellen \name vor, eine transformerbasierte Architektur für die unüberwachte 3D-Bildregistrierung, die durch einen plattenbasierten Aufmerksamkeitsmechanismus das Gleichgewicht zwischen lokaler und globaler Aufmerksamkeit in 3D-Volumina herstellt und eine Hi-Res-Tokenisierungsstrategie mit Merging-Operationen einsetzt. Dadurch wird es möglich, feinere Details zu erfassen ohne dabei die rechnerische Effizienz zu beeinträchtigen. Bemerkenswerterweise legt \name bei der OASIS-Datensammlung einen neuen Leistungsstandard fest, wobei es nur 16-27 Mal weniger Parameter benötigt. https://github.com/MedVIC-Lab/Efficient_Morph_Registration