DeepSat V2: Merkmalsverstärkte Faltungsneuronale Netze für die Klassifizierung von Satellitenbildern

Die Klassifizierung von Satellitenbildern ist ein anspruchsvolles Problem, das sich an der Schnittstelle zwischen Fernerkundung, Computer Vision und maschinellem Lernen befindet. Aufgrund der hohen Variabilität, die in Satellitendaten inhärent ist, sind die meisten aktuellen Ansätze zur Objektklassifizierung nicht geeignet, um Satellitendatensätze zu verarbeiten. Der Fortschritt der Analyse von Satellitenbildern wurde auch durch den Mangel an einem einzigen hochaufgelösten Datensatz mit mehreren Klassenbezeichnungen behindert. In einer vorläufigen Version dieser Arbeit stellten wir zwei neue hochaufgelöste Satellitenbild-Datensätze (SAT-4 und SAT-6) vor und schlugen den DeepSat-Framework für die Klassifizierung auf Basis von "handgefertigten" Merkmalen und einem tiefen Glaubensnetzwerk (DBN) vor. Die vorliegende Arbeit ist eine erweiterte Version, in der wir einen end-to-end-Framework präsentieren, das eine verbesserte Architektur nutzt, die ein konvolutives Neuronales Netz (CNN) mit handgefertigten Merkmalen erweitert (anstatt einer DBN-basierten Architektur) für die Klassifizierung. Unser Framework, das Zugang zu fusionierten räumlichen Informationen erhält, die sowohl aus handgefertigten Merkmalen als auch aus CNN-Merkmalskarten stammen, hat Genauigkeiten von 99,90 % und 99,84 % auf SAT-4 und SAT-6 erreicht und damit alle anderen StandesderTechnik-Ergebnisse übertroffen. Eine statistische Analyse basierend auf dem Verteilungsseparabilitätskriterium bestätigt die Robustheit unseres Ansatzes beim Lernen besserer Repräsentationen für Satellitenbilder.