CFC-Net : Un réseau de capture de caractéristiques critiques pour la détection d'objets orientés arbitrairement dans les images de télédétection

La détection d’objets dans les images de télédétection optique constitue une tâche importante mais complexe. Ces dernières années, les méthodes fondées sur les réseaux neuronaux convolutifs ont connu des progrès significatifs. Toutefois, en raison de la grande variabilité de l’échelle, du rapport d’aspect et de l’orientation arbitraire des objets, il reste difficile d’améliorer davantage la performance de détection. Dans cet article, nous étudions le rôle des caractéristiques discriminantes dans la détection d’objets, puis proposons un réseau appelé Critical Feature Capturing Network (CFC-Net) afin d’améliorer la précision de détection selon trois axes : la construction d’une représentation de caractéristiques puissante, le raffinement des ancres prédéfinies, et l’optimisation de l’affectation des étiquettes. Plus précisément, nous décomposons d’abord les caractéristiques de classification et de régression, puis construisons des caractéristiques critiques robustes adaptées à chaque tâche grâce au module d’attention par polarisation (Polarization Attention Module, PAM). À partir des caractéristiques de régression discriminantes extraites, le module de raffinement des ancres rotationnelles (Rotation Anchor Refinement Module, R-ARM) affine la localisation des ancres horizontales prédéfinies afin d’obtenir des ancres rotationnelles optimales. Ensuite, nous proposons une stratégie d’apprentissage dynamique des ancres (Dynamic Anchor Learning, DAL), permettant de sélectionner de manière adaptative les ancres de haute qualité en fonction de leur capacité à capter les caractéristiques critiques. Le cadre proposé génère des représentations sémantiques plus puissantes pour les objets présents dans les images de télédétection et permet une détection en temps réel de haute performance. Les résultats expérimentaux sur trois jeux de données de télédétection — HRSC2016, DOTA et UCAS-AOD — montrent que notre méthode atteint une performance de détection supérieure à celle de nombreuses approches de pointe. Le code source et les modèles sont disponibles à l’adresse suivante : https://github.com/ming71/CFC-Net.