
摘要
为了在仅有少量样本的情况下识别未见类别,少样本学习(Few-Shot Learning, FSL)依赖于从已见类别中学习到的先验知识。FSL面临的一个主要挑战是:未见类别的数据分布与已见类别存在差异,这导致即使模型在已见类别上进行了元训练,其泛化性能仍然较差。这种由类别差异引起的分布偏移可被视为一种特殊的域偏移(domain shift)问题。本文首次提出一种基于注意力机制的域适应原型网络(Domain Adaptation Prototypical Network with Attention, DAPNA),在元学习框架下显式地应对此类域偏移问题。具体而言,DAPNA引入基于集合变换器(set transformer)的注意力模块,将每个训练周期(episode)划分为两个互不重叠的子周期(sub-episodes),且两个子周期均仅包含已见类别,从而模拟已见类别与未见类别之间的域偏移。为在训练样本有限的条件下对齐两个子周期的特征分布,本文进一步引入特征迁移网络,并结合边缘差异差异损失(Margin Disparity Discrepancy, MDD)进行优化。尤为重要的是,本文提供了理论分析,推导了DAPNA模型的学习界(learning bound),为方法的理论可靠性提供了支撑。大量实验结果表明,所提出的DAPNA方法显著优于现有的先进少样本学习方法,在多数场景下均取得了显著的性能提升。