
摘要
许多用于少样本学习的元学习方法依赖于简单的基础学习器,如最近邻分类器。然而,即使在少样本场景中,判别训练的线性预测器也能提供更好的泛化能力。我们提出使用这些预测器作为基础学习器来学习少样本学习的表示,并展示了它们在一系列少样本识别基准测试中提供了特征尺寸与性能之间的更好权衡。我们的目标是学习能够在新类别上通过线性分类规则实现良好泛化的特征嵌入。为了高效地解决这一目标,我们利用了线性分类器的两个特性:凸问题最优条件的隐式微分和优化问题的对偶形式。这使得我们可以在计算开销适度增加的情况下使用高维嵌入以提高泛化能力。我们的方法称为MetaOptNet,在miniImageNet、tieredImageNet、CIFAR-FS和FC100少样本学习基准测试中达到了最先进的性能。我们的代码可在https://github.com/kjunelee/MetaOptNet 获取。