
摘要
本文研究了语义分割任务中的无监督域自适应问题。该领域存在两个核心问题:即应当迁移什么(what to transfer)以及如何迁移(how to transfer)域间知识。现有方法主要通过对抗学习(how to transfer)来实现域不变特征的适应(what to transfer)。然而,上下文依赖性对于语义分割至关重要,其可迁移性尚未得到充分理解;此外,如何在两个域之间迁移上下文信息仍缺乏系统研究。针对这一问题,我们提出一种基于自注意力机制的跨注意力方法,以捕捉两个域之间的上下文依赖关系,并实现可迁移上下文的自适应。为实现该目标,我们设计了两个跨域注意力模块,分别从空间维度和通道维度适应上下文依赖关系。具体而言,空间注意力模块用于建模源域与目标域图像中各位置之间的局部特征依赖关系;通道注意力模块则用于建模跨域通道特征图之间语义层面的依赖关系。为进一步适应上下文依赖,我们还引入选择性聚合机制,融合来自两个域的上下文信息。在“GTA5 到 Cityscapes”与“SYNTHIA 到 Cityscapes”两个基准数据集上的实验结果表明,所提方法在性能上显著优于现有最先进的无监督域自适应方法。