
摘要
我们提出了一种从标签丰富的域到标签贫乏的域进行无监督适应的目标检测器方法,该方法可以显著降低与检测相关的标注成本。近年来,通过对抗损失对源图像和目标图像的分布进行对齐的方法已被证明在适应对象分类器方面非常有效。然而,对于目标检测而言,在全局图像级别上完全匹配源图像和目标图像的整体分布可能会失败,因为不同域可能具有不同的场景布局和不同的对象组合。另一方面,强匹配局部特征(如纹理和颜色)是有意义的,因为它不会改变类别级别的语义。这促使我们提出一种基于强局部对齐和弱全局对齐的新型检测器适应方法。我们的主要贡献在于弱对齐模型,该模型将对抗对齐损失集中在全局相似的图像上,并减少对全局不相似图像的对齐重视程度。此外,我们设计了强域对齐模型,仅关注特征图的局部感受野。我们在包含大域移和小域移的四个数据集上进行了实证验证,以证明我们方法的有效性。我们的代码可在以下网址获取:\url{https://github.com/VisionLearningGroup/DA_Detection}