摘要
领域自适应旨在将带有标注的源域数据中的知识迁移至目标域中标签稀疏的数据上,近年来受到广泛关注,并推动了众多多媒体应用的发展。近期的方法表明,通过在图像级和实例级上对齐源域与目标域图像的分布,利用对抗学习可有效减小两者之间的分布差异。然而,这一任务仍面临诸多挑战,因为两个域可能具有截然不同的背景场景和不同的物体类别。此外,物体之间的复杂组合以及多样的图像风格进一步加剧了无监督跨域分布对齐的难度。为应对上述挑战,本文提出一种面向目标检测器的端到端无监督领域自适应方法。具体而言,我们设计了一种多层级熵注意力对齐(Multi-level Entropy Attention Alignment, MEAA)机制,包含两个核心组件:(1)局部不确定性注意力对齐(Local Uncertainty Attentional Alignment, LUAA)模块,通过信息论方法利用像素级域分类器的熵来度量每个局部区域的不确定性,从而帮助模型更有效地感知结构不变的目标物体;(2)多层级不确定性感知上下文对齐(Multi-level Uncertainty-Aware Context Alignment, MUCA)模块,基于多层级域分类器的熵,增强与任务相关物体的域不变特征表达。所提出的MEAA方法在四个存在域偏移的目标检测场景中进行了评估。实验结果表明,该方法在三个具有挑战性的场景中达到了当前最优性能,在一个基准数据集上也取得了具有竞争力的表现。