HyperAIHyperAI
il y a 17 jours

Exposer l’Exposition aux Données Anormales : Que peut-on apprendre à partir de peu, d’une seule ou de zéro image anormale

Philipp Liznerski, Lukas Ruff, Robert A. Vandermeulen, Billy Joe Franks, Klaus-Robert Müller, Marius Kloft
Exposer l’Exposition aux Données Anormales : Que peut-on apprendre à partir de peu, d’une seule ou de zéro image anormale
Résumé

En raison de la difficulté intrinsèque à caractériser toutes les données qui s’écartent du comportement normal, la détection d’anomalies (AD) est traditionnellement traitée comme un problème non supervisé, utilisant uniquement des échantillons normaux. Toutefois, il a récemment été observé que la détection d’anomalies d’images non supervisée peut être considérablement améliorée grâce à l’utilisation de grandes collections d’images aléatoires pour représenter l’anomalie — une technique connue sous le nom d’Outlier Exposure. Dans ce papier, nous montrons que des méthodes d’apprentissage spécialisées pour l’AD semblent inutiles pour atteindre des performances de pointe, et qu’il est possible d’obtenir de bons résultats avec une simple collection limitée de données d’Outlier Exposure, contredisant ainsi les hypothèses courantes dans le domaine de l’AD. Nous constatons que des classificateurs standards ainsi que des méthodes semi-supervisées à un seul type, entraînés pour distinguer des échantillons normaux d’un petit nombre d’images naturelles aléatoires, surpassent l’état de l’art actuel sur une benchmark établie d’AD utilisant ImageNet. Des expériences complémentaires révèlent que même un seul échantillon d’anomalie bien choisi suffit à atteindre des performances satisfaisantes sur cette benchmark (79,3 % d’AUC). Nous analysons ce phénomène et constatons que les méthodes à un seul type sont plus robustes au choix des échantillons d’anomalie, indiquant qu’il existe des scénarios où elles restent plus utiles que les classificateurs standards. En outre, nous présentons des expériences qui précisent les conditions dans lesquelles nos résultats sont valables. Enfin, aucune donnée d’entraînement n’est nécessaire lorsque l’on utilise les représentations apprises par CLIP, un modèle fondamental récent, qui atteint des résultats de pointe en détection d’anomalies sur CIFAR-10 et ImageNet dans un cadre zéro-shot.