Détection des données hors distribution par transformation implicite des valeurs aberrantes

L’exposition aux outliers (Outlier Exposure, OE) est particulièrement efficace pour la détection de données hors distribution (OOD), améliorant la capacité de détection grâce au fine-tuning du modèle à l’aide de données OOD de substitution. Toutefois, ces données de substitution s’écartent généralement des données OOD réelles testées. Par conséquent, la performance de OE face à des données OOD inédites peut être compromise. Pour remédier à ce problème, nous proposons une nouvelle approche fondée sur OE, permettant au modèle de maintenir une bonne performance même dans des situations OOD inconnues. Cette approche conduit à un schéma d’apprentissage min-max : elle consiste à rechercher des données OOD synthétiques qui induisent les pires jugements, puis à apprendre à partir de ces données afin d’assurer une performance uniforme en détection OOD. Dans notre mise en œuvre, ces données OOD les plus défavorables sont générées en transformant les données de substitution initiales. Plus précisément, les fonctions de transformation associées sont apprises implicitement, grâce à une nouvelle intuition : une perturbation du modèle entraîne une transformation des données. Notre méthode offre ainsi une voie efficace pour la synthèse de données OOD, qui peut renforcer davantage le modèle de détection au-delà des données OOD de substitution. Nous menons des expériences approfondies dans diverses configurations de détection OOD, démontrant l’efficacité de notre méthode par rapport à ses concurrentes avancées.