
摘要
在构建统一的视觉系统或逐步向系统中添加新功能时,通常假设所有任务的训练数据始终可用。然而,随着任务数量的增加,存储和重新训练这些数据变得不可行。一个新的问题出现了:我们需要为卷积神经网络(CNN)添加新的功能,但其现有功能的训练数据却无法获得。我们提出了一种“无遗忘学习”方法,该方法仅使用新任务的数据来训练网络,同时保留原有的功能。我们的方法与常用的特征提取和微调适应技术相比表现良好,并且在性能上类似于使用我们假设不可用的原始任务数据进行的多任务学习。一个更令人惊讶的观察结果是,“无遗忘学习”可能能够在类似的老任务和新任务数据集上替代微调,从而提高新任务的表现。