
摘要
元学习被提出作为一种框架,以应对具有挑战性的少样本学习场景。其核心思想是利用大量相似的少样本任务,从而学会如何将基础学习器适应到只有少数标记样本的新任务上。由于深度神经网络(DNNs)在使用少量样本时容易过拟合,元学习通常使用浅层神经网络(SNNs),这限制了其有效性。本文中,我们提出了一种新的少样本学习方法——元迁移学习(MTL),该方法能够学会如何将深度神经网络适应到少样本学习任务中。具体而言,“元”指的是训练多个任务,而“迁移”则是通过为每个任务学习DNN权重的缩放和平移函数来实现的。此外,我们引入了一种称为困难任务(HT)的元批次方案,作为MTL的有效学习课程。我们在两个具有挑战性的少样本学习基准数据集——miniImageNet和Fewshot-CIFAR100上进行了(5类1次)和(5类5次)识别任务的实验。与相关工作的广泛对比验证了我们的元迁移学习方法结合提出的HT元批次方案能够达到最佳性能。消融研究还表明,这两个组件对快速收敛和高精度都有重要贡献。