11 天前

约束性少样本类增量学习

Michael Hersche, Geethan Karunaratne, Giovanni Cherubini, Luca Benini, Abu Sebastian, Abbas Rahimi
约束性少样本类增量学习
摘要

从新数据中持续学习新类别,同时不遗忘旧类别的知识,是一个极具挑战性的研究问题。此外,此类学习必须满足特定的内存与计算约束,包括:(i)每类训练样本仅限少量;(ii)学习新类别的计算开销保持恒定;(iii)模型的内存占用随所观察类别数量最多呈线性增长。为满足上述约束,我们提出C-FSCIL,其架构由一个冻结的元学习特征提取器、一个可训练的固定大小全连接层,以及一个可重写且动态增长的内存组成,该内存可存储与已遇到类别数量相等的向量。C-FSCIL提供三种更新模式,可在新类别学习的准确性与计算-内存开销之间实现灵活权衡。该方法利用超维嵌入(hyperdimensional embedding)技术,能够在固定维度的向量空间中持续表示远超维度数量的类别,且干扰极小。通过引入新颖的损失函数,进一步将类别向量表示在近正交方向上对齐,显著提升了表示质量。在CIFAR100、miniImageNet和Omniglot数据集上的实验表明,C-FSCIL在准确率与压缩性能方面均显著优于现有基线方法。此外,该方法可扩展至此类少样本设置中迄今为止最大的问题规模——在1200个基础类别的基础上,成功学习423个新类别,且准确率下降不足1.6%。相关代码已开源,地址为:https://github.com/IBM/constrained-FSCIL。

约束性少样本类增量学习 | 最新论文 | HyperAI超神经