
近年来,基于卷积神经网络(CNN)的超分辨率图像重建(SISR)方法虽然在性能上取得了显著提升,但其参数量庞大、计算开销高,限制了其在移动等资源受限设备上的实际应用。为提升网络效率,知识蒸馏(Knowledge Distillation, KD)作为一种有效手段受到广泛关注,其核心思想是将教师网络(teacher network)中蕴含的有用知识迁移至参数更少、结构更轻量的学生网络(student network)。近期,SISR领域的知识蒸馏方法普遍采用特征蒸馏(Feature Distillation, FD),通过最小化教师网络与学生网络之间特征图的欧几里得距离损失来实现知识传递。然而,此类方法未能充分考虑如何在给定网络容量约束下,高效且有意义地实现知识从教师到学生的有效迁移,从而限制了学生网络的性能提升。针对上述问题,本文提出一种面向轻量级学生SISR网络的特征域自适应对比蒸馏(Feature-domain Adaptive Contrastive Distillation, FACD)方法。我们首先揭示了现有基于欧几里得距离损失的FD方法在特征表达学习上的局限性,进而提出一种新的特征域对比损失(feature-domain contrastive loss),使学生网络能够从教师网络的特征表示中学习到更丰富、更具判别性的信息。此外,本文进一步引入一种自适应蒸馏机制,根据训练图像块的具体特性动态决定是否启用蒸馏过程,从而实现更精细化的知识迁移。实验结果表明,采用所提出的FACD方案后,学生网络(如EDSR与RCAN)在多个基准数据集及不同放大尺度下,不仅在客观指标PSNR上显著优于传统的FD方法,同时在主观视觉质量方面也表现出更优的重建效果,充分验证了该方法在提升轻量级SISR模型性能方面的有效性与实用性。