2 个月前

TADAM:任务依赖的自适应度量以改进少样本学习

Boris N. Oreshkin; Pau Rodriguez; Alexandre Lacoste
TADAM:任务依赖的自适应度量以改进少样本学习
摘要

少样本学习已成为从少量示例中生成泛化模型的关键技术。在本研究中,我们发现度量缩放和度量任务条件化对于提高少样本算法的性能至关重要。我们的分析表明,简单的度量缩放完全改变了少样本算法参数更新的本质。对于某些度量,在mini-Imagenet 5分类5样本任务上,度量缩放可将准确率提升高达14%。此外,我们提出了一种简单而有效的方法,使学习器能够在任务样本集上进行条件化,从而学习到依赖于任务的度量空间。我们还提出并实证测试了一种基于辅助任务协同训练的端到端优化程序,以学习依赖于任务的度量空间。基于任务依赖的缩放度量所构建的少样本学习模型在mini-Imagenet上达到了最先进的水平。我们在本文中引入了另一个基于CIFAR100的少样本数据集,并在该数据集上验证了这些结果。我们的代码已公开发布在https://github.com/ElementAI/TADAM。