LSKNet: Ein leistungsfähiger, leichtgewichtiger Backbone für die Fernerkundung

Remote-Sensing-Bilder stellen aufgrund ihrer inhärenten Komplexität besondere Herausforderungen für nachgeschaltete Aufgaben dar. Obwohl eine erhebliche Menge an Forschung der Klassifikation, Objektdetektion und semantischen Segmentierung im Bereich des Remote Sensing gewidmet wurde, haben die meisten dieser Studien die wertvolle Vorwissenstruktur, die in Remote-Sensing-Szenarien eingebettet ist, übersehen. Dieses Vorwissen kann von Bedeutung sein, da Remote-Sensing-Objekte ohne Berücksichtigung eines ausreichend langen räumlichen Kontexts fehlerhaft erkannt werden können, wobei sich dieser Kontext je nach Objekt unterscheiden kann. In dieser Arbeit berücksichtigen wir solche Vorwissen und stellen einen leichten Backbone namens Large Selective Kernel Network (LSKNet) vor. LSKNet kann seinen großen räumlichen Empfangsfeld dynamisch anpassen, um den räumlichen Kontext verschiedener Objekte in Remote-Sensing-Szenarien besser zu modellieren. Soweit uns bekannt ist, wurden große und selektive Kernel-Mechanismen bisher noch nicht im Kontext von Remote-Sensing-Bildern untersucht. Ohne aufwendige Zusatzmechanismen setzt unser leichter LSKNet neue SOTA-Werte (State-of-the-Art) auf etablierten Benchmark-Datenbanken für Remote-Sensing-Klassifikation, Objektdetektion und semantische Segmentierung. Unsere umfassende Analyse bestätigt zudem die Bedeutung der identifizierten Vorwissen und die Wirksamkeit von LSKNet. Der Quellcode ist unter https://github.com/zcablii/LSKNet verfügbar.