
摘要
少样本学习(Few-shot Learning, FSL)旨在仅使用每类极少量的训练数据来识别新类别对象。以往的研究主要通过元学习范式或数据增强中的新原则来缓解这种极端数据稀缺的问题。与此不同,本文提出一种简洁的统计方法——实例可信度推理(Instance Credibility Inference, ICI),用于利用未标注样本的分布支持信息,提升少样本学习性能。具体而言,我们首先使用少量有标签的少样本样本训练一个线性分类器,并利用该分类器为未标注数据推断伪标签。为衡量每个伪标签实例的可信度,我们进一步提出通过引入附带参数的稀疏性约束,求解另一个线性回归假设,并根据伪标签实例的稀疏程度进行排序。随后,选取可信度最高的伪标签实例与原始有标签样本共同构成扩展训练集,用于重新训练线性分类器。该过程迭代进行,直至所有未标注样本均被纳入扩展训练集,即未标注数据池中的伪标签趋于收敛。在两种典型少样本学习设置下的大量实验表明,本文提出的简单方法在四个广泛使用的少样本学习基准数据集(包括 miniImageNet、tieredImageNet、CIFAR-FS 和 CUB)上均取得了新的最先进性能(state-of-the-art)。相关代码已公开,地址为:https://github.com/Yikai-Wang/ICI-FSL。