
摘要
少样本学习(Few-shot learning)旨在利用极少的标注数据识别新类别。原型网络(Prototypical network)在现有研究中被广泛采用,然而,当在标注数据量稀少且样本尺寸分布狭窄的情况下进行训练时,往往会导致原型(prototype)产生偏差。本文识别出该过程中的两个关键影响因素:类内偏差(intra-class bias)与类间偏差(cross-class bias)。为此,我们提出一种在归纳设置(transductive setting)下简单而有效的原型修正方法。该方法通过标签传播(label propagation)减少类内偏差,并借助特征迁移(feature shifting)降低类间偏差。此外,本文还进行了理论分析,推导了该方法的合理性及其性能的下界。实验结果在三个少样本学习基准数据集上验证了所提方法的有效性。值得注意的是,该方法在miniImageNet数据集上取得了70.31%(1-shot)和81.89%(5-shot)的先进性能,在tieredImageNet数据集上分别达到78.74%(1-shot)和86.92%(5-shot),均达到当前最优水平。