
摘要
语义分割任务要求模型为图像中的每个像素分配语义标签。然而,当此类模型部署于与训练数据分布不同的未见领域时,其性能往往会显著下降。本文提出一种基于增强驱动的语义分割领域泛化新方法,该方法采用权重平均的重参数化视觉Transformer(ReVT)架构,在模型训练完成后对多个模型的权重进行平均。我们在多个基准数据集上对该方法进行了评估,在常用基准数据集上,小型模型取得了47.3%的mIoU(先前最优为46.3%),中型模型达到了50.1%的mIoU(先前最优为47.8%),均达到当前最优水平。与此同时,该方法所需参数更少,推理帧率更高,优于现有最佳方法。此外,该方法实现简单,且与网络集成(network ensembles)不同,在推理阶段不引入任何额外的计算复杂度。