17 天前
面向统一且高效的领域泛化
Yiyuan Zhang, Kaixiong Gong, Xiaohan Ding, Kaipeng Zhang, Fangrui Lv, Kurt Keutzer, Xiangyu Yue

摘要
我们提出了一种名为 $\textbf{UniDG}$ 的新型统一框架,用于域泛化(Domain Generalization),该框架能够显著提升各类基础模型在分布外数据上的泛化性能,且不依赖于模型的具体架构。UniDG 的核心思想是在推理阶段对模型进行微调,从而避免反复训练带来的高昂计算成本。具体而言,我们引导模型以无监督方式学习测试数据的分布特性,并对模型参数的更新步数施加惩罚项。该惩罚项能有效缓解灾难性遗忘问题,确保原始模型中宝贵的先验知识得到最大程度的保留。在实验中,我们在 12 种不同的视觉主干网络上验证了 UniDG 的性能,涵盖基于 CNN、MLP 和 Transformer 的模型,参数量范围从 189 万到 3.03 亿不等。在 DomainBed 基准测试上,UniDG 平均实现了 +5.4% 的准确率提升。这些结果充分证明了 UniDG 在性能优势与架构普适性方面的卓越表现。代码已开源,欢迎访问:https://github.com/invictus717/UniDG