2 个月前

重新审视并最大化半监督语义分割中的时间知识

Wooseok Shin; Hyun Joon Park; Jin Sob Kim; Sung Won Han
重新审视并最大化半监督语义分割中的时间知识
摘要

在半监督语义分割中,均值教师(Mean Teacher)和协同训练(co-training)方法被用于缓解确认偏差和耦合问题。然而,尽管这些方法性能优异,但它们通常涉及复杂的训练流程和巨大的计算负担,限制了这些方法的可扩展性和兼容性。本文提出了一种PrevMatch框架,通过最大化利用训练过程中获得的时间知识来有效缓解上述限制。PrevMatch框架依赖于两个核心策略:(1) 我们重新考虑时间知识的使用,因此直接利用训练过程中获得的先前模型生成额外的伪标签指导,称为先前指导。(2)我们设计了一种高度随机化的集成策略,以最大化先前指导的有效性。在四个基准语义分割数据集上的实验结果表明,所提出的方法在各种评估协议下始终优于现有方法。特别是,在使用DeepLabV3+和ResNet-101网络配置的情况下,PrevMatch仅用92张标注图像就在Pascal VOC数据集上比现有的最先进方法Diverse Co-training高出1.6个mIoU,同时实现了2.4倍更快的训练速度。此外,结果还表明PrevMatch诱导了稳定的优化过程,特别是在提升表现较差的类别方面效果显著。代码可在https://github.com/wooseok-shin/PrevMatch 获取。