TINYCD: Ein (Nicht So Tiefes) Lernmodell für die Änderungserkennung

In dieser Arbeit stellen wir ein leichtgewichtiges und effektives Änderungserkennungsmodell vor, das TinyCD genannt wird. Dieses Modell wurde aufgrund industrieller Anforderungen so konzipiert, dass es schneller und kleiner als aktuelle state-of-the-art-Änderungserkennungsmodelle ist. Trotz einer Größe, die 13 bis 140 Mal kleiner ist als die verglichenen Änderungserkennungsmodelle, und mindestens ein Drittel der Rechenkomplexität aufweist, übertrifft unser Modell die aktuellen state-of-the-art-Modelle um mindestens 1 % sowohl im F1-Score als auch im IoU auf dem LEVIR-CD-Datensatz und um mehr als 8 % auf dem WHU-CD-Datensatz. Um diese Ergebnisse zu erzielen, verwendet TinyCD eine Siamese U-Net-Architektur, die tiefe Merkmale global zeitlich und lokal räumlich nutzt. Zudem setzt es eine neue Strategie zur Mischung von Merkmalen im Raum-Zeit-Bereich ein, sowohl um die aus den Siamese Backbones gewonnenen Einbettungen zu fusionieren als auch, in Kombination mit einem MLP-Block, einen neuen raum-semantischen Aufmerksamkeitsmechanismus zu bilden, den Mix and Attention Mask Block (MAMB) (Mix and Attention Mask Block). Quellcode, Modelle und Ergebnisse sind hier verfügbar: https://github.com/AndreaCodegoni/Tiny_model_4_CD