
摘要
遥感(Remote Sensing, RS)场景分类在环境监测与地质调查等领域具有广泛应用。在实际应用中,卫星获取的遥感场景图像通常面临两种典型环境:清晰与多云。然而,现有大多数方法并未同时考虑这两种环境下的分类性能。本文假设,在清晰或云覆盖环境下,全局特征与局部特征均具有判别性。尽管基于卷积神经网络(Convolutional Neural Networks, CNN)的现有模型在图像分类任务中取得了显著成果,但其网络结构在一定程度上忽视了对全局与局部特征的协同建模。为此,本文提出一种新型CNN架构(命名为GLNet),该网络包含全局编码器(Global Encoder)与局部编码器(Local Encoder),用于分别提取具有判别性的全局与局部特征,以提升遥感场景分类的性能。同时,在GLNet的训练过程中,引入了类间分散性约束与类内紧凑性约束,进一步增强特征的可分性。在两个公开的遥感场景分类数据集上的实验结果表明,所提出的GLNet在清晰与多云两种环境下,均能基于多种主流CNN骨干网络实现优于现有方法的分类性能。