8 天前
UniDAformer:通过分层掩码校准实现统一域自适应全景分割的Transformer
Jingyi Zhang, Jiaxing Huang, Xiaoqin Zhang, Shijian Lu

摘要
域自适应全景分割旨在通过利用一个或多个相关源域中现成的标注数据,缓解数据标注带来的挑战。然而,现有方法通常采用两个独立的网络分别执行实例分割与语义分割,导致网络参数过多,并使得训练与推理过程复杂且计算开销大。为此,我们提出UniDAformer,一种统一的域自适应全景分割Transformer架构,其结构简洁,却能在单一网络中同时实现域自适应的实例分割与语义分割。UniDAformer引入了分层掩码校准(Hierarchical Mask Calibration, HMC)机制,通过在线自训练的方式,在区域、超像素和像素三个层级上对不准确的预测结果进行修正。该方法具备三大优势:1)实现统一的域自适应全景分割适应;2)有效减少误预测,显著提升域自适应全景分割性能;3)支持端到端训练,具有更为简洁高效的训练与推理流程。在多个公开基准数据集上的大量实验表明,UniDAformer在域自适应全景分割任务上显著优于当前最先进的方法。