Gemeinsames Lernen von Faltungsrepräsentationen zur Kompression radiologischer Bilder und Klassifizierung thorakaler Erkrankungen im komprimierten Domäne
Tiefen Lernmodelle, die auf natürlichen Bildern trainiert wurden, werden häufig für verschiedene Klassifizierungsaufgaben im medizinischen Bereich eingesetzt. Üblicherweise werden sehr hochdimensionale medizinische Bilder vor der Eingabe in tiefen Lernmodelle, die mit ImageNet kompatibel sind und lediglich Bilder mit geringer Auflösung der Größe 224 × 224 Pixel akzeptieren, mittels Interpolationsverfahren heruntergeproportioniert. Diese verbreitete Vorgehensweise kann jedoch zu einem Verlust wesentlicher Informationen führen und somit die Klassifizierung beeinträchtigen. Signifikante pathologische Merkmale in medizinischen Bildern sind typischerweise klein und äußerst empfindlich gegenüber Auflösungsverlusten. Um diesem Problem entgegenzuwirken, stellen wir einen auf einem Faltungsneuralen Netzwerk (CNN) basierenden Klassifizierungsansatz vor, der gleichzeitig lernt, die Bildauflösung mithilfe eines Autoencoders zu reduzieren und das Bild mit einem weiteren Netzwerk zu klassifizieren, wobei beide Aufgaben gemeinsam trainiert werden. Dieser Algorithmus führt das Modell dazu, wesentliche Repräsentationen aus hochauflösenden Bildern sowohl für die Klassifizierung als auch für die Rekonstruktion zu lernen. Wir haben diesen Ansatz anhand eines öffentlich verfügbaren Datensatzes von Thorax-Röntgenbildern evaluiert und konnten auf Testdaten die bisher besten Ergebnisse erzielen. Zudem haben wir die Wirkung verschiedener Augmentationsansätze auf diesem Datensatz untersucht und Baseline-Ergebnisse mit mehreren etablierten CNN-Architekturen aus der ImageNet-Klasse vorgestellt.