TINYCD : Un Modèle (Pas Si) Profond d'Apprentissage pour la Détection de Changements

Dans cet article, nous présentons un modèle de détection de changement léger et efficace, appelé TinyCD. Ce modèle a été conçu pour être plus rapide et plus petit que les modèles actuels de pointe en matière de détection de changement, en réponse aux besoins industriels. Bien qu'il soit 13 à 140 fois plus petit que les modèles de détection de changement comparés, et qu'il expose au moins un tiers de la complexité computationnelle, notre modèle surpasse les modèles actuels de pointe d'au moins 1 % tant en termes de score F1 qu'en termes d'IoU sur l'ensemble de données LEVIR-CD, et de plus de 8 % sur l'ensemble de données WHU-CD. Pour obtenir ces résultats, TinyCD utilise une architecture Siamese U-Net qui exploite les caractéristiques de bas niveau d'une manière temporelle globale et spatiale locale. De plus, il adopte une nouvelle stratégie pour mélanger les caractéristiques dans le domaine espace-temps afin non seulement de fusionner les plongements obtenus des troncs communs Siamese, mais aussi, couplée avec un bloc MLP, elle forme un nouveau mécanisme d'attention espace-sémantique, le Mix and Attention Mask Block (MAMB) [Mix and Attention Mask Block]. Le code source, les modèles et les résultats sont disponibles ici : https://github.com/AndreaCodegoni/Tiny_model_4_CD