ChangeMamba : Détection de changement par télédétection avec modèle d'espace d'état spatio-temporel

Les réseaux neuronaux convolutifs (CNN) et les Transformers ont réalisé des progrès impressionnants dans le domaine de la détection de changement en télédétection (CD). Cependant, ces deux architectures présentent des limitations inhérentes : les CNN sont limités par un champ récepteur restreint qui peut entraver leur capacité à capturer des contextes spatiaux plus larges, tandis que les Transformers sont très exigeants en termes de calcul, ce qui rend leur entraînement et leur déploiement coûteux sur de grands ensembles de données. Récemment, l'architecture Mamba, basée sur des modèles d'espace d'état, a montré des performances remarquables dans une série de tâches de traitement du langage naturel, permettant ainsi de compenser efficacement les lacunes des deux architectures mentionnées précédemment. Dans cet article, nous explorons pour la première fois le potentiel de l'architecture Mamba pour les tâches de détection de changement en télédétection (CD). Nous adaptons les cadres correspondants, appelés MambaBCD, MambaSCD et MambaBDA, respectivement pour la détection binaire de changement (BCD), la détection sémantique de changement (SCD) et l'évaluation des dommages aux bâtiments (BDA). Les trois cadres utilisent l'architecture visuelle Mamba à la pointe du progrès comme encodeur, ce qui permet une apprentissage complet des informations contextuelles spatiales globales à partir des images d'entrée. Pour le décodeur de changement, disponible dans les trois architectures, nous proposons trois mécanismes de modélisation des relations spatio-temporelles qui peuvent être naturellement combinés avec l'architecture Mamba et pleinement exploiter ses attributs pour réaliser une interaction spatio-temporelle des caractéristiques multi-temporelles, obtenant ainsi des informations précises sur les changements. Sur cinq jeux de données基准数据集(benchmark datasets),nos cadres proposés surpassent les approches actuelles basées sur les CNN et les Transformers sans utiliser aucune stratégie d'entraînement complexe ou astuce, démontrant pleinement le potentiel de l'architecture Mamba dans les tâches CD. Des expériences supplémentaires montrent que notre architecture est très robuste face aux données dégradées. Le code source sera disponible sur https://github.com/ChenHongruixuan/MambaCD.注:在翻译“benchmark datasets”时,我保留了英文原词并加上了中文解释,因为这个术语在法语文献中通常也会直接使用英文。如果你希望完全使用法语表达,可以将其翻译为“jeux de données référence”。