
摘要
少样本或单样本分类器的学习需要对要学习的任务类型具有显著的归纳偏置。一种获取这种偏置的方法是在与目标任务相似的任务上进行元学习。在本文中,我们提出了一种名为UMTRA(Unsupervised Model-Agnostic Meta-Learning for Classification Tasks)的算法,该算法用于分类任务的无监督、模型无关元学习。UMTRA的元学习步骤是在一组未标记图像上进行的。虽然我们假设这些图像可以被分组为多种类别的集合,并且与目标任务相关,但不需要提供关于类别或任何标签的显式信息。UMTRA通过随机采样和数据增强来创建合成训练任务,以完成元学习阶段。在最终的目标任务学习步骤中才需要标签,而且每个类别只需要一个样本即可。在Omniglot和Mini-Imagenet少样本学习基准测试中,UMTRA在基于表示无监督学习的方法中表现最佳,同时其性能与最近提出的CACTUs算法相当。与有监督的模型无关元学习方法相比,UMTRA牺牲了一些分类准确性,但所需标签的数量减少了几个数量级。