
摘要
卷积神经网络能够学习强大的表征空间,这对于解决复杂的机器学习任务是必要的。然而,由于捕捉这些表征所需的模型容量较大,卷积神经网络往往容易过拟合,因此需要适当的正则化以实现良好的泛化性能。在本文中,我们展示了一种简单的正则化技术——即在训练过程中随机遮挡输入图像中的方形区域(称为Cutout),可以用来提高卷积神经网络的鲁棒性和整体性能。该方法不仅极其易于实现,而且我们还证明了它可以与现有的数据增强技术和其他正则化方法结合使用,进一步提升模型性能。我们通过将该方法应用于CIFAR-10、CIFAR-100 和 SVHN 数据集上的当前最先进架构进行评估,分别获得了2.56%、15.20% 和 1.30% 的测试误差新纪录。代码可在 https://github.com/uoguelph-mlrg/Cutout 获取。