2 个月前

CoMFormer:语义分割和全景分割中的持续学习

Cermelli, Fabio ; Cord, Matthieu ; Douillard, Arthur
CoMFormer:语义分割和全景分割中的持续学习
摘要

持续学习在分割任务中的应用最近引起了越来越多的关注。然而,以往的所有研究都集中在狭义的语义分割上,忽略了全景分割这一具有现实影响的重要任务。本文中,我们提出了首个能够同时处理语义分割和全景分割的持续学习模型——CoMFormer。受近期将分割视为掩码分类问题的变压器方法启发,我们的方法充分利用了变压器架构的特性,以实现随时间学习新类别的能力。具体而言,我们提出了一种新颖的自适应蒸馏损失函数以及基于掩码的伪标签技术,有效防止了遗忘现象的发生。为了评估我们的方法,我们在具有挑战性的ADE20K数据集上引入了一个新的持续全景分割基准测试。实验结果表明,CoMFormer在减少旧类别遗忘的同时,也更有效地学习了新类别,显著优于现有的所有基线模型。此外,我们还在大规模持续语义分割场景中进行了广泛的评估,结果显示CoMFormer同样大幅超越了当前最先进的方法。

CoMFormer:语义分割和全景分割中的持续学习 | 最新论文 | HyperAI超神经