
摘要
持续语义分割(Continual Semantic Segmentation, CSS)旨在将已有模型扩展以应对未见任务,同时保留其原有的知识。然而,若直接在新数据上对旧模型进行微调,将导致灾难性遗忘。一种常见的解决方案是知识蒸馏(Knowledge Distillation, KD),即通过约束新模型的输出分布与旧模型保持相似来实现知识迁移。但在CSS场景下,这一方法面临背景分布偏移(background shift)的挑战。现有基于KD的CSS方法仍难以避免背景类与新类之间的混淆,其根本原因在于未能建立可靠的类别对应关系以支撑有效的蒸馏过程。为解决该问题,本文提出一种新型的标签引导知识蒸馏(Label-Guided Knowledge Distillation, LGKD)损失函数。该方法通过真实标签的引导,将旧模型的输出进行扩展并“移植”到新模型的输出空间中,从而构建出语义上合理且一致的类别对应关系。由此,旧模型中的有效知识可被准确、无混淆地迁移到新模型中。我们在两个主流的CSS基准数据集Pascal-VOC和ADE20K上进行了大量实验,结果表明,所提出的LGKD显著提升了三种对比方法的性能,尤其在新类平均交并比(novel mIoU)上最高提升达+76%,刷新了当前最优性能记录。为进一步验证方法的泛化能力,我们首次构建了一个基于ScanNet数据集的3D点云持续语义分割基准,并复现了多个基线方法进行对比。实验结果表明,LGKD在2D与3D模态下均表现出优异的适应性,无需针对特定模态进行额外设计。代码已开源,地址为:https://github.com/Ze-Yang/LGKD。