17 天前

负样本增强

Abhishek Sinha, Kumar Ayush, Jiaming Song, Burak Uzkent, Hongxia Jin, Stefano Ermon
负样本增强
摘要

数据增强常用于通过生成符合数据底层分布的合成样本,以扩充数据集。为实现更广泛的增强策略,我们探索了负向数据增强(Negative Data Augmentation, NDA)方法,该方法有意生成分布外(out-of-distribution)的样本。我们证明,此类负向分布外样本能够提供关于数据分布支撑集(support)的信息,并可用于生成建模与表示学习。本文提出一种新型GAN训练目标,将NDA作为判别器的额外合成数据来源。在适当条件下,我们证明优化该目标仍能恢复真实数据分布,同时可直接引导生成器避免产生缺乏预期结构的样本。实验结果表明,采用该方法训练的模型在条件/无条件图像生成任务中表现更优,并显著提升了异常检测能力。此外,我们将相同的负向数据增强策略引入对比学习框架,用于图像与视频的自监督表示学习,在下游任务(如图像分类、目标检测与动作识别)中均取得了性能提升。这些结果表明,关于“何为无效数据”的先验知识,可作为一种有效的弱监督信号,广泛适用于多种无监督学习任务。

负样本增强 | 最新论文 | HyperAI超神经