
摘要
MetaDL Challenge 2020 聚焦于少样本(few-shot)设置下的图像分类任务。本文介绍该竞赛中排名第二的参赛方案。我们提出的元学习方法通过对骨干网络在隐空间中生成的类别分布进行调整,使每个类别的特征分布更趋近于高斯分布,从而提升分类性能。该操作被称为“隐空间变换”(Latent Space Transform)算法。在此基础上,我们采用期望最大化(Expectation Maximization, EM)算法的迭代方式,进一步对各类别中心进行对齐,以有效利用大量未标注数据所蕴含的信息——这些未标注数据通常在仅有少量标注样本的基础上额外提供。为实现这一目标,我们引入了基于Sinkhorn算法的最优传输(Optimal Transport)映射。实验结果表明,该方法在性能上优于以往的工作以及其他变体算法(如K近邻算法、高斯混合模型等),在少样本图像分类任务中展现出显著优势。