
摘要
在少样本学习中,机器学习系统通过少量与特定任务相关的标记示例进行学习,从而能够推广到该任务的新示例。由于这类任务中可用的标记示例有限,我们希望充分利用所有可以获得的信息。通常情况下,模型从一个小训练集(支持集)中学习特定任务的信息,以预测未标记的验证集(目标集)。然而,目标集中包含额外的任务特定信息,而现有的少样本学习方法并未利用这些信息。通过迁移学习利用目标集中的示例需要超越当前的方法;在推理阶段,目标集中仅包含未标记的输入数据点,因此无法使用判别式学习。本文提出了一种称为自批评和适应(Self-Critique and Adapt, SCA)的框架,该框架学习如何学习一个无标签损失函数,该函数被参数化为神经网络。基础模型首先使用现有方法(例如结合交叉熵损失的随机梯度下降)在支持集上进行学习,然后使用所学的损失函数对即将到达的目标任务进行更新。这个无标签损失函数本身也被优化,使得所学模型能够实现更高的泛化性能。实验结果表明,SCA相比仅在支持集上进行适应的基线方法显著降低了错误率,并且在Mini-ImageNet和Caltech-UCSD Birds 200数据集上达到了最先进的基准性能。