Brustkrebsdiagnose in Zwei-Bild-Mammographie mit einem von Anfang bis Ende trainierten EfficientNet-basierten Faltungsnetzwerk

Einige kürzlich veröffentlichte Studien beschreiben tief konvolutive Neuronale Netze, die Brustkrebs in Mammographien mit vergleichbarer oder sogar überlegener Leistung diagnostizieren können als menschliche Experten. Eine der besten Techniken führt zwei Transferlernprozesse durch: Der erste verwendet ein Modell, das auf natürlichen Bildern trainiert wurde, um einen „Patch-Klassifizierer“ zu erstellen, der kleine Teilbilder klassifiziert; der zweite verwendet den Patch-Klassifizierer, um das gesamte Mammogramm zu scannen und den „Single-View Whole-Image Klassifizierer“ zu erstellen. Wir schlagen vor, einen dritten Transferlernprozess durchzuführen, um einen „Two-View Klassifizierer“ zu erhalten, der die beiden Mammographieansichten nutzt: bilaterale cranio-caudal und medio-lateral schräg (Mediolateral Oblique). Als Grundlage unseres Modells verwenden wir EfficientNet. Das gesamte System wird „end-to-end“ unter Verwendung des CBIS-DDSM-Datensatzes trainiert. Um statistische Robustheit sicherzustellen, testen wir unser System zweimal: (a) mittels 5-facher Kreuzvalidierung; und (b) unter Verwendung der ursprünglichen Trainings-/Testaufteilung des Datensatzes. Unsere Technik erreichte bei der 5-fachen Kreuzvalidierung einen AUC von 0,9344 (Genauigkeit, Empfindlichkeit und Spezifität betragen 85,13 % am Gleichfehlerpunkt der ROC-Kurve). Bei der Verwendung der ursprünglichen Aufteilung des Datensatzes erreichte unsere Technik einen AUC von 0,8483, was nach unserem Wissen der höchste bisher gemeldete AUC für dieses Problem ist. Allerdings erlauben die feinen Unterschiede in den Testbedingungen jeder Arbeit keinen genauen Vergleich. Der Inferenzcode und das Modell sind unter https://github.com/dpetrini/two-views-classifier verfügbar.