
摘要
基于卷积神经网络的方法在语义分割任务中取得了显著进展。然而,这些方法严重依赖于人工标注的数据,而数据标注过程耗时耗力。为缓解这一局限,研究者常采用图形引擎生成的合成数据进行模型训练。然而,仅在合成数据上训练的模型难以有效迁移到真实图像上。为应对这一问题,以往工作通常采用直接将源域模型适配到未标注目标域数据的方法(以缩小域间差异)。但此类方法未充分考虑目标域内部数据分布的巨大差异(即域内差异)。为此,本文提出一种两阶段自监督域适应方法,旨在同时减小域间差异与域内差异。首先,我们执行模型的域间适应;在此基础上,利用基于熵的排序函数将目标域数据划分为“易样本”与“难样本”两部分。最后,为缩小域内差异,我们进一步提出一种从“易样本”到“难样本”的自监督适应机制。在多个基准数据集上的实验结果表明,所提方法在性能上显著优于现有最先进方法。项目源代码已开源,地址为:https://github.com/feipan664/IntraDA.git。