SPCXR: Selbstüberwachtes Vortrainieren mit Brust-CT-Aufnahmen zur Entwicklung eines domain-spezifischen Grundmodells

Röntgenaufnahmen des Brustkorbs (Chest X-rays, CXRs) sind eine weit verbreitete Bildgebungsmethode zur Diagnose und Prognose von Lungenerkrankungen. Die Aufgaben der Bildanalyse variieren erheblich und umfassen beispielsweise die Erkennung von Pathologien sowie die Segmentierung der Lunge. In zahlreichen Studien wurden maschinelle Lernalgorithmen für spezifische Aufgaben entwickelt. Ein aktuelles Beispiel ist die Erkennung der Coronavirus-Krankheit (COVID-19) mithilfe von CXR-Daten. Traditionelle Ansätze zur Entwicklung diagnostischer Werkzeuge auf Basis überwachtem Lernen sind jedoch durch den erheblichen Aufwand bei der Annotation von Trainingsdaten belastet, wobei eine hohe Qualität der Annotation für optimale klinische Ergebnisse entscheidend ist. In diesem Beitrag präsentieren wir eine alternative Lösung: ein neues selbstüberwachtes Lernparadigma, bei dem mittels eines gruppenbasierten Masking-Ansatzes eine allgemeine Darstellung aus CXR-Bildern erlernt wird. Das vortrainierte Modell wird anschließend für domain-spezifische Aufgaben wie die Erkennung von COVID-19, Pneumonie und allgemeine Gesundheitsvorsorge feinabgestimmt. Wir zeigen, dass dasselbe Vortrainingsverfahren auch für die Segmentierung der Lunge genutzt werden kann. Unser vorgeschlagenes Paradigma erzielt robuste Ergebnisse in mehreren nachgeschalteten Aufgaben, was den Erfolg des Vortrainings belegt. Zudem zeigt sich, dass die vortrainierten Modelle auch bei erheblichen Datenverzerrungen (Data Drift) während der Testphase eine hohe Leistung erzielen, was auf die Lernung einer allgemeineren und robusteren Darstellung hindeutet. Die Methode wird zudem anhand der Erkennung von COVID-19 in einem einzigartigen, kleinen pädiatrischen Datensatz validiert. Im Vergleich zu einem überwachten Transformer-basierten Ansatz zeigt sich eine signifikante Verbesserung der Genauigkeit um etwa 25 %. Dies unterstreicht die Stärke und Zuverlässigkeit unseres vorgeschlagenen Frameworks sowie der Vortrainingsstrategie.