
摘要
无监督学习旨在从无标签数据中学习具有意义的表示,以捕捉数据的内在结构,并可将其迁移至下游任务。元学习(meta-learning)的目标则是学习一种跨任务的泛化能力,使得所学模型能够快速适应新任务,其精神与无监督学习具有共通之处:二者均致力于学习比从零开始学习更为高效、有效的学习机制。两者的核心区别在于,现有大多数元学习方法均为监督式,依赖于完整的标签信息。然而,获取用于元训练的标注数据集不仅成本高昂(需人工标注),且限制了其应用范围,仅限于预定义的任务分布。本文提出一种基于变分自编码器(Variational Autoencoder, VAE)与集合层面变分推断的系统性无监督元学习模型,命名为Meta-GMVAE。此外,我们引入高斯混合模型(Gaussian Mixture Model, GMM)作为先验分布,假设在随机采样的任务片段(episode)中,每一模态对应一个类别概念,并通过期望最大化(Expectation-Maximization, EM)算法进行优化。在此基础上,所学习的模型可用于下游的少样本分类任务:通过在支持集与查询集的潜在表示上执行半监督EM算法,获得任务特定的参数,并基于聚合后验概率对查询集样本进行标签预测。我们在Omniglot与Mini-ImageNet数据集上对模型进行了验证,评估其在下游少样本分类任务中的性能。实验结果表明,本模型在现有无监督元学习基线方法上取得了显著的性能提升,甚至在某些设置下超越了监督式MAML方法的表现。