Bildprojektive Transformation und Rektifikation mit synthetischen Daten zur Klassifikation von Smartphone-erfassten Brust-Röntgenaufnahmen

Die Klassifikation von auf Smartphones aufgenommenen Röntgenaufnahmen des Brustkorbs (CXR) zur Erkennung von Pathologien ist aufgrund der projektiven Transformationen, die durch eine nicht-ideale Kameraposition verursacht werden, herausfordernd. In letzter Zeit wurden verschiedene Rectification-Methoden für unterschiedliche Foto-Rectification-Aufgaben vorgeschlagen, beispielsweise für Dokumentaufnahmen oder Kennzeichenbilder. Leider zeigte sich, dass keine dieser Methoden für CXR-Aufnahmen geeignet ist, da diese aufgrund ihres spezifischen Transformationsmusters, ihres Bildauftritts und der Art der Annotationen besondere Anforderungen stellen. In diesem Artikel stellen wir ein innovatives, auf tiefen Lernverfahren basierendes Projektive Transformation Rectification Network (PTRN) vor, das CXR-Aufnahmen automatisch rectifiziert, indem es die projektive Transformationsmatrix vorhersagt. Soweit uns bekannt ist, ist dies die erste Arbeit, die die Vorhersage der projektiven Transformationsmatrix als Lernziel für die Foto-Rectification definiert. Um die kostspielige Sammlung natürlicher Daten zu vermeiden, werden synthetische CXR-Aufnahmen unter Berücksichtigung natürlicher Störungen, zusätzlicher Schirme usw. generiert. Wir evaluieren unseren Ansatz im Rahmen des von der Machine Learning Group der Stanford University organisierten Wettbewerbs „CheXphoto“ zur Klassifikation smartphone-basierter CXR-Aufnahmen. Unser Ansatz erreichte den ersten Platz mit einer erheblichen Leistungssteigerung (unser Ergebnis: 0,850, zweitbeste Leistung: 0,762, gemessen an AUC). Eine detaillierte Analyse zeigt, dass die Verwendung von PTRN die Klassifikationsleistung auf räumlich transformierten CXR-Aufnahmen auf das Niveau von hochwertigen digitalen CXR-Bildern bringt, was belegt, dass PTRN alle negativen Auswirkungen projektiver Transformationen auf CXR-Aufnahmen erfolgreich beseitigt.