2 个月前

即使没有基础数据也能实现更好的广义少样本学习

Seong-Woong Kim; Dong-Wan Choi
即使没有基础数据也能实现更好的广义少样本学习
摘要

本文介绍了并研究了零基广义少样本学习(零基GFSL),这是一种极端但实用的少样本学习问题版本。鉴于因隐私或伦理问题导致无法获取基础数据的情况,零基GFSL的目标是在不使用任何基础类别的样本的情况下,将少量新类别样本的知识融入预训练模型中。通过我们的分析,我们发现与基础类别相比,新类别的权重分布的均值和方差均未得到适当建立。现有的广义少样本学习方法试图使权重范数平衡,但我们发现这仅有助于方差部分,而忽略了权重均值特别是对新类别的重要性,从而导致即使在有基础数据的情况下GFSL问题的性能仍然有限。在本文中,我们提出了一种简单而有效的归一化方法,该方法可以在不使用任何基础样本的情况下有效控制新类别的权重分布的均值和方差,从而在新类别和基础类别上均取得令人满意的性能。实验结果令人惊讶地表明,所提出的零基GFSL方法即使不利用任何基础样本,其性能甚至超过了现有最佳利用基础数据的广义少样本学习方法。我们的实现代码已发布在:https://github.com/bigdata-inha/Zero-Base-GFSL。