7 天前

LEAD:面向无源通用域适应的可学习分解方法

Sanqing Qu, Tianpei Zou, Lianghua He, Florian Röhrbein, Alois Knoll, Guang Chen, Changjun Jiang
LEAD:面向无源通用域适应的可学习分解方法
摘要

通用域适应(Universal Domain Adaptation, UniDA)旨在应对同时存在协变量偏移(covariate shift)与标签偏移(label shift)情况下的知识迁移问题。近年来,无源通用域适应(Source-free Universal Domain Adaptation, SF-UniDA)应运而生,其目标是在无需访问源域数据的前提下实现UniDA,这一设定因符合数据隐私保护政策而更具实际应用价值。当前的主要挑战在于:如何准确判断那些受协变量偏移影响的样本是否属于目标域中独有的未知类别。现有方法通常依赖人工设定的阈值策略,或采用耗时的迭代聚类方法来解决该问题。本文提出一种全新的思路——LEArning Decomposition(LEAD),通过将特征解耦为“源域已知”与“源域未知”两部分,实现对目标域独有数据的有效识别。在技术实现上,LEAD首先利用正交分解分析(orthogonal decomposition analysis)对特征进行分解;随后,构建实例级别的决策边界,以自适应方式识别目标域独有的数据。在多种UniDA场景下的大量实验验证了LEAD的有效性与优越性。特别地,在VisDA数据集上的开放集域适应(OPDA)场景中,LEAD相较GLC方法在整体H-score上提升了3.5%,同时将伪标签决策边界的生成时间减少75%。此外,LEAD具有良好的兼容性,可与大多数现有方法互补使用。代码已公开于:https://github.com/ispc-lab/LEAD。

LEAD:面向无源通用域适应的可学习分解方法 | 最新论文 | HyperAI超神经