Generative Adversarial Networks auf Basis eines Transformer-Encoder und eines Convolution-Block für die Klassifikation hyperspektraler Bilder
Heutzutage kann die Klassifikation hyperspektraler Bilder (HSI) eine hohe Klassifizierungsgenauigkeit erreichen, wenn ausreichend etikettierte Proben als Trainingsdatensatz zur Verfügung stehen. Allerdings sinken die Leistungen bestehender Methoden deutlich, wenn nur wenige etikettierte Proben zur Verfügung stehen. Bestehende Ansätze für Few-Shot-Probleme erfordern in der Regel zusätzlich ein weiteres Datenset, um die Klassifizierungsgenauigkeit zu verbessern. Diese Methoden leiden jedoch unter dem sogenannten Cross-Domain-Problem, das durch erhebliche spektrale Verschiebungen zwischen Ziel- und Quelldomäne verursacht wird. Um diese Probleme zu adressieren, schlagen wir eine neue Methode vor, die keinen externen Datensatz erfordert. Diese Methode integriert in einem einheitlichen Rahmen einen Generativen adversarialen Netzwerk (GAN), einen Transformer-Encoder und einen Convolution-Block. Das vorgeschlagene Verfahren kombiniert sowohl einen globalen Empfindlichkeitsbereich, der durch den Transformer-Encoder bereitgestellt wird, als auch einen lokalen Empfindlichkeitsbereich, der durch den Convolution-Block gewährleistet wird. Experimente an den Datensätzen Indian Pines, PaviaU und KSC zeigen, dass unsere Methode die Ergebnisse bestehender Deep-Learning-Methoden für die Klassifikation hyperspektraler Bilder im Few-Shot-Lernproblem übertrifft.