
摘要
近年来,语义分割领域取得了显著进展。然而,监督式语义分割的成功通常依赖于大量标注数据,而获取这些数据既耗时又成本高昂。受图像分类任务中半监督学习方法成功的启发,本文提出了一种简单但高效的半监督语义分割框架。我们证明了“细节决定成败”:一系列简洁的设计与训练技巧可协同显著提升半监督语义分割的性能。以往工作[3, 27]未能高效利用强数据增强进行伪标签学习,原因是强增强带来的分布显著变化会破坏批归一化(batch normalization)的统计特性。为此,我们提出一种新型批归一化方法——分布特定批归一化(Distribution-Specific Batch Normalization, DSBN),有效解决了该问题,并验证了强数据增强在语义分割中的关键作用。此外,我们设计了一种自校正损失函数(self-correction loss),具有良好的抗噪声能力。通过一系列消融实验,我们充分验证了各组件的有效性。所提方法在Cityscapes和Pascal VOC数据集的半监督设置下均取得了当前最优(state-of-the-art)性能。