Classification de scènes par imagerie satellitaire basée sur les réseaux de neurones convolutifs dans des environnements clairs et nuageux

La classification de scènes par télédétection (RS) présente des applications larges dans le suivi environnemental et les études géologiques. Dans les applications réelles, les images de scènes par télédétection prises par satellite peuvent présenter deux situations : des conditions claires ou des conditions nuageuses. Toutefois, la plupart des méthodes existantes ne tiennent pas compte simultanément de ces deux environnements. Dans cet article, nous supposons que les caractéristiques globales et locales sont discriminantes, qu’il s’agisse d’un environnement clair ou nuageux. De nombreuses architectures basées sur les réseaux de neurones convolutifs (CNN) ont obtenu des résultats remarquables dans la classification d’images, mais elles négligent quelque peu l’extraction des caractéristiques globales et locales au sein de leur structure réseau. Dans ce travail, nous proposons un nouveau réseau CNN (nommé GLNet), comprenant un encodeur global et un encodeur local, afin d’extraire efficacement des caractéristiques discriminantes à la fois globales et locales pour la classification des scènes par télédétection. Des contraintes de dispersion inter-classes et de compacité intra-classes sont intégrées dans le processus d’entraînement de GLNet. Les résultats expérimentaux sur deux jeux de données publics de classification de scènes par télédétection montrent que le modèle GLNet atteint des performances supérieures par rapport à plusieurs architectures CNN existantes, dans les deux conditions — claire et nuageuse.