Command Palette
Search for a command to run...
Réseau de fusion CNN-Transformer pour la détection de changements
Réseau de fusion CNN-Transformer pour la détection de changements
Yuhao Gao Gensheng Pei Mengmeng Sheng Zeren Sun Tao Chen Yazhou Yao
Résumé
Bien que l’apprentissage profond, en particulier les réseaux neuronaux convolutifs (CNN), a révolutionné la détection de changements dans les images de télédétection (RS), les approches existantes souffrent fréquemment de l’omission de caractéristiques cruciales en raison du manque de prise en compte du contexte global et d’un apprentissage des changements incomplet. Par ailleurs, les réseaux transformateurs peinent à capturer les détails de bas niveau. RCTNet surmonte ces limitations en introduisant : \textbf{(1)} un arrière-plan à fusion précoce permettant d’exploiter simultanément les caractéristiques spatiales et temporelles dès les premières étapes ; \textbf{(2)} un module d’agrégation cross-étage (CSA) pour améliorer la représentation temporelle ; \textbf{(3)} un module de fusion de caractéristiques à plusieurs échelles (MSF) enrichissant l’extraction de caractéristiques dans le décodeur ; et \textbf{(4)} un module d’attention auto-décryptante efficace (ESA) basé sur les transformateurs, permettant de capter à la fois l’information globale et les détails fins pour une détection de changements précise. Des expériences étendues démontrent clairement l’avantage de RCTNet par rapport aux méthodes traditionnelles de détection de changements dans les images de télédétection, avec une amélioration significative et un équilibre optimal entre précision et coût computationnel.