17 天前

可解释的深度单类分类

Philipp Liznerski, Lukas Ruff, Robert A. Vandermeulen, Billy Joe Franks, Marius Kloft, Klaus-Robert Müller
可解释的深度单类分类
摘要

针对异常检测的深度单类分类变体通过学习一个映射函数,将正常样本在特征空间中集中分布,从而使异常样本被映射至远离正常区域的位置。由于该映射具有高度非线性特性,其可解释性分析面临重大挑战。本文提出一种可解释的深度单类分类方法——全卷积数据描述(Fully Convolutional Data Description, FCDD),其映射后的样本本身即构成解释性热力图(explanation heatmap)。FCDD在CIFAR-10和ImageNet等常见异常检测基准上实现了具有竞争力的检测性能,并提供了合理且直观的解释。在近期的工业制造数据集MVTec-AD上(该数据集提供真实异常标注图),FCDD在无监督设置下取得了新的最优性能。此外,我们的方法可在训练过程中引入真实异常图作为监督信号,即使仅使用少量标注样本(约5张),也能显著提升模型性能。最后,基于FCDD生成的解释,我们揭示了深度单类分类模型对虚假图像特征(如图像水印)的脆弱性,表明模型可能过度依赖此类无关但显著的视觉线索进行判断。