11 天前

基于Transformer的域适应中的安全自精炼

Tao Sun, Cheng Lu, Tianshuo Zhang, Haibin Ling
基于Transformer的域适应中的安全自精炼
摘要

无监督域自适应(Unsupervised Domain Adaptation, UDA)旨在利用标签丰富的源域数据来解决相关但无标签的目标域上的任务。当源域与目标域之间存在较大域差异时,该问题尤为具有挑战性。本文提出一种新颖的方法——SSRT(基于Transformer的域自适应安全自精炼方法,Safe Self-Refinement for Transformer-based domain adaptation),从两个方面实现性能提升。首先,受视觉Transformer在各类视觉任务中取得成功启发,SSRT采用Transformer作为主干网络。实验发现,将视觉Transformer与简单的对抗性域适应策略相结合,在具有挑战性的DomainNet基准测试中,其性能超越了此前报道的最佳卷积神经网络(CNN)方法,展现出强大的可迁移特征表示能力。其次,为降低模型坍塌风险并提升在域间差异较大的场景下知识迁移的有效性,本文提出一种“安全自精炼”(Safe Self-Refinement)策略。具体而言,SSRT利用经过扰动的目标域数据的预测结果来优化模型自身。由于视觉Transformer模型容量较大,且在复杂任务中预测结果可能含有噪声,因此设计了一种安全训练机制,可自适应地调整学习配置,从而提升训练稳定性与泛化能力。在多个广泛使用的UDA基准测试上进行了大量实验评估,SSRT均取得了 consistently 最优的性能表现,具体包括:在Office-Home数据集上达到85.43%的准确率,在VisDA-2017数据集上达到88.76%,在DomainNet数据集上达到45.2%的准确率。

基于Transformer的域适应中的安全自精炼 | 最新论文 | HyperAI超神经