17 天前

基于自适应边界损失的少样本学习增强

Aoxue Li, Weiran Huang, Xu Lan, Jiashi Feng, Zhenguo Li, Liwei Wang
基于自适应边界损失的少样本学习增强
摘要

近年来,少样本学习(Few-shot Learning, FSL)受到越来越多的关注,但由于从少量样本中实现有效泛化本身具有内在挑战性,该领域仍面临诸多难题。本文提出一种自适应边界(adaptive margin)原则,以提升基于度量的元学习方法在少样本学习任务中的泛化能力。具体而言,我们首先设计了一种与类别相关的加性边界损失(class-relevant additive margin loss),通过考虑类别之间的语义相似性,增强特征嵌入空间中来自相似类别样本的可分性。进一步地,我们引入了采样训练任务中所有类别之间的语义上下文信息,构建了一种任务相关的加性边界损失(task-relevant additive margin loss),从而更有效地区分不同类别间的样本。所提出的自适应边界方法可便捷地拓展至更具现实意义的广义少样本学习(generalized FSL)场景。大量实验结果表明,该方法在标准少样本学习与广义少样本学习两种设置下,均能显著提升现有基于度量的元学习方法的性能。