
摘要
近期关于无监督域自适应(Unsupervised Domain Adaptation, UDA)的研究表明,端到端集成学习框架在UDA任务中展现出极具吸引力的性能。然而,这类端到端集成学习方法通常缺乏灵活性,任何对集成成员的调整都需重新训练整个框架。为解决这一问题,本文提出一种灵活的集成蒸馏框架,用于基于语义分割的UDA任务。该框架能够在保持优异性能的前提下,支持集成成员的任意组合,从而实现高度灵活性。为实现这一目标,我们的框架设计具备对集成成员输出不一致性及性能波动的强鲁棒性。为全面评估所提方法的有效性与鲁棒性,我们在GTA5到Cityscapes以及SYNTHIA到Cityscapes两个基准数据集上开展了大量实验,定量分析了该方法所带来的性能提升。此外,我们还进行了深入的消融分析,验证了各项设计选择的合理性与实际效益。实验结果充分表明,所提出的框架在基于语义分割的UDA任务中,相较于当前主流基线方法,具备更优的性能、更强的鲁棒性以及更高的灵活性。