2 个月前

HRDA:上下文感知的高分辨率领域自适应语义分割

Lukas Hoyer; Dengxin Dai; Luc Van Gool
HRDA:上下文感知的高分辨率领域自适应语义分割
摘要

无监督域适应(UDA)旨在在无需对目标域(例如现实世界数据)进行额外标注的情况下,将源域(例如合成数据)上训练的模型迁移到目标域。本研究专注于用于语义分割的UDA,因为现实世界的像素级标注特别昂贵。由于用于语义分割的UDA方法通常需要大量的GPU内存,大多数先前的方法仅在缩小比例的图像上运行。我们质疑这种设计,因为低分辨率预测往往无法保留细小细节。高分辨率图像的随机裁剪作为替代方案虽然缓解了这一问题,但在捕捉长距离、域鲁棒性的上下文信息方面仍存在不足。因此,我们提出了一种多分辨率训练方法——HRDA,该方法结合了小高分辨率裁剪以保留精细分割细节和大低分辨率裁剪以捕捉长距离上下文依赖的优势,并通过学习尺度注意力机制来平衡这些优势,同时保持可控的GPU内存占用。HRDA能够适应小型物体并保留精细的分割细节。它显著提升了GTA到Cityscapes和Synthia到Cityscapes的最新性能,分别提高了5.5 mIoU和4.9 mIoU,达到了前所未有的73.8 mIoU和65.8 mIoU。该方法的实现代码已发布在https://github.com/lhoyer/HRDA。