11 天前
原型对比自适应用于域自适应语义分割
Zhengkai Jiang, Yuxi Li, Ceyuan Yang, Peng Gao, Yabiao Wang, Ying Tai, Chengjie Wang

摘要
无监督域自适应(Unsupervised Domain Adaptation, UDA)旨在将基于带标签源域训练的模型迁移到无标签目标域。本文提出了一种简单且高效的对比学习方法——原型对比自适应(Prototypical Contrast Adaptation, ProCA),用于无监督域自适应下的语义分割任务。以往的域自适应方法仅关注跨不同域的类内表示分布对齐,而对类间结构关系的探索不足,导致在目标域上对齐后的表示可能不再像源域那样具有良好的可区分性。相比之下,ProCA将类间信息融入类级原型中,并采用以类为中心的分布对齐策略进行域自适应。具体而言,ProCA将同一类的原型视为正样本,其他类的原型视为负样本,从而实现类中心分布对齐。该方法在经典的域自适应任务上取得了当前最优性能,包括GTA5 → Cityscapes 以及 SYNTHIA → Cityscapes。代码已公开,地址为:https://github.com/jiangzhengkai/ProCA。