
摘要
深度神经网络(DNNs)在多个学科的多种应用中取得了巨大成功。然而,其卓越性能的背后是需要正确标注的大规模数据集这一高昂成本。此外,由于DNNs具有丰富的容量,训练标签中的错误可能会损害其性能。为了解决这一问题,最近提出了均方绝对误差(MAE)作为常用分类交叉熵(CCE)损失的噪声鲁棒替代方案。然而,如本文所示,MAE在处理DNNs和具有挑战性的数据集时可能表现不佳。在此,我们提出了一组理论上严谨的噪声鲁棒损失函数,可以视为MAE和CCE的泛化形式。所提出的损失函数可以方便地应用于任何现有的DNN架构和算法,并在各种噪声标签场景下表现出良好的性能。我们报告了使用CIFAR-10、CIFAR-100和FASHION-MNIST数据集以及人工生成的噪声标签进行实验的结果。