CAMIL: Kontextbewusstes Mehrfachinstanz-Lernen zur Krebsdetektion und Subtypisierung in Ganzes-Präparat-Bildern

Die visuelle Untersuchung von Gewebeprobenabschnitten ist grundlegend für die Krebsdiagnose, wobei Pathologen Probenabschnitte in mehreren Vergrößerungsstufen analysieren, um Tumorzellen und deren Subtypen zu erkennen. Allerdings berücksichtigen bestehende auf Aufmerksamkeit basierende Multiple-Instance-Learning-(MIL)-Modelle zur Analyse von Whole-Slide-Bildern (WSIs) in der Krebsdiagnostik oft die kontextuelle Information von Tumorzellen und benachbarten Bildfeldern nicht ausreichend, was zu Fehlklassifizierungen führen kann. Um dieses Problem zu lösen, schlagen wir die Context-Aware Multiple Instance Learning-(CAMIL)-Architektur vor. CAMIL integriert benachbartenbeschränkte Aufmerksamkeit, um Abhängigkeiten zwischen Bildfeldern innerhalb eines WSI zu berücksichtigen, und stellt kontextuelle Einschränkungen als Vorwissen in das MIL-Modell ein. Wir evaluierten CAMIL anhand der Subtypisierung nicht-kleinzelliger Lungenkarzinome (TCGA-NSCLC) sowie der Detektion von Lymphknotenmetastasen (CAMELYON16 und CAMELYON17) und erzielten Test-AUC-Werte von jeweils 97,5 %, 95,9 % und 88,1 %, was die Leistung anderer state-of-the-art-Methoden übertrifft. Zudem verbessert CAMIL die Interpretierbarkeit des Modells, indem sie Regionen mit hoher diagnostischer Relevanz identifiziert.