HyperAIHyperAI
vor 2 Monaten

TINYCD: Ein (Nicht So Tiefes) Lernmodell für die Änderungserkennung

Andrea Codegoni; Gabriele Lombardi; Alessandro Ferrari
TINYCD: Ein (Nicht So Tiefes) Lernmodell für die Änderungserkennung
Abstract

In dieser Arbeit stellen wir ein leichtgewichtiges und effektives Änderungserkennungsmodell vor, das TinyCD genannt wird. Dieses Modell wurde aufgrund industrieller Anforderungen so konzipiert, dass es schneller und kleiner als aktuelle state-of-the-art-Änderungserkennungsmodelle ist. Trotz einer Größe, die 13 bis 140 Mal kleiner ist als die verglichenen Änderungserkennungsmodelle, und mindestens ein Drittel der Rechenkomplexität aufweist, übertrifft unser Modell die aktuellen state-of-the-art-Modelle um mindestens 1 % sowohl im F1-Score als auch im IoU auf dem LEVIR-CD-Datensatz und um mehr als 8 % auf dem WHU-CD-Datensatz. Um diese Ergebnisse zu erzielen, verwendet TinyCD eine Siamese U-Net-Architektur, die tiefe Merkmale global zeitlich und lokal räumlich nutzt. Zudem setzt es eine neue Strategie zur Mischung von Merkmalen im Raum-Zeit-Bereich ein, sowohl um die aus den Siamese Backbones gewonnenen Einbettungen zu fusionieren als auch, in Kombination mit einem MLP-Block, einen neuen raum-semantischen Aufmerksamkeitsmechanismus zu bilden, den Mix and Attention Mask Block (MAMB) (Mix and Attention Mask Block). Quellcode, Modelle und Ergebnisse sind hier verfügbar: https://github.com/AndreaCodegoni/Tiny_model_4_CD

TINYCD: Ein (Nicht So Tiefes) Lernmodell für die Änderungserkennung | Neueste Forschungsarbeiten | HyperAI