17 天前

揭示异常值暴露:从少量、单个乃至零个异常图像中能学到什么

Philipp Liznerski, Lukas Ruff, Robert A. Vandermeulen, Billy Joe Franks, Klaus-Robert Müller, Marius Kloft
揭示异常值暴露:从少量、单个乃至零个异常图像中能学到什么
摘要

由于难以对所有与正常数据不同的样本进行表征,异常检测(Anomaly Detection, AD)传统上被视为仅利用正常样本的无监督学习问题。然而,近期研究发现,通过使用大量随机图像构成的语料库来表征异常性,可显著提升无监督图像异常检测的性能,这一技术被称为“异常暴露”(Outlier Exposure)。本文表明,实现当前最先进的异常检测性能并不需要专门设计的AD学习方法;更重要的是,仅需少量异常暴露数据即可获得优异性能,这一发现与领域内普遍假设相悖。我们发现,仅使用标准分类器或半监督单类方法,通过训练其区分正常样本与少量随机自然图像,即可在ImageNet上的标准AD基准测试中超越当前最先进水平。进一步实验表明,甚至仅需一个精心选择的异常样本,便能在该基准上实现相当可观的性能(AUC达79.3%)。我们对这一现象进行了深入探究,发现单类方法对训练异常样本的选择具有更强的鲁棒性,表明在某些场景下,单类方法仍优于标准分类器。此外,本文还通过实验明确了本研究结论适用的具体情境。最后,当采用CLIP——一种近期出现的基础模型——所学习的特征表示时,甚至无需任何训练样本,即可在零样本设置下于CIFAR-10和ImageNet上实现当前最先进的异常检测性能。

揭示异常值暴露:从少量、单个乃至零个异常图像中能学到什么 | 最新论文 | HyperAI超神经