17 天前
语义自适应:基于单样本提升泛化能力
Sherwin Bahmani, Oliver Hahn, Eduard Zamfir, Nikita Araslanov, Daniel Cremers, Stefan Roth

摘要
域外泛化能力的缺失是深度网络在语义分割任务中的一个关键弱点。以往的研究通常基于静态模型的假设,即在训练完成后,模型参数在测试阶段保持固定不变。本文提出一种自适应的语义分割方法,挑战了这一传统假设,通过根据每个输入样本动态调整推理过程实现自适应。该自适应机制在两个层面发挥作用:首先,利用一致性正则化策略,对卷积层参数进行微调,使其适应输入图像;其次,在批量归一化(Batch Normalization)层中,自适应机制基于单个测试样本推导出的参考分布与训练分布之间进行插值。尽管这两种技术在文献中均已广为人知,但它们的结合在“合成到真实”域外泛化基准测试中取得了新的最先进性能。我们的实证研究表明,自适应机制可能与训练阶段已有的模型正则化方法相辅相成,有助于提升深度网络在域外数据上的泛化能力。相关代码与预训练模型已开源,详见:https://github.com/visinf/self-adaptive。