RODD : Une Approche Auto-supervisée pour la Détection Robuste de Données Hors Distribution

Des études récentes ont abordé la détection et le rejet des échantillons hors distribution (OOD) comme un enjeu majeur dans le déploiement sécurisé des modèles d’apprentissage profond (DL). Il est souhaitable que le modèle DL n’affiche de confiance qu’envers les données in-distribution (ID), ce qui renforce le principe fondamental de la détection OOD. Dans cet article, nous proposons une méthode simple mais efficace de détection OOD généralisée, indépendante des jeux de données OOD. Notre approche repose sur l’apprentissage auto-supervisé des caractéristiques des échantillons d’entraînement, où les embeddings sont répartis dans un espace de faible dimension compact. Inspirés par des travaux récents montrant que l’apprentissage contrastif adversarial auto-supervisé renforce la robustesse du modèle, nous démontrons empiriquement qu’un modèle pré-entraîné via une méthode d’apprentissage contrastif auto-supervisé conduit à une meilleure représentation unidimensionnelle dans l’espace latent. La méthode proposée dans ce travail, désignée RODD, obtient des performances supérieures aux méthodes de pointe (SOTA) sur une vaste gamme de jeux de données de référence pour les tâches de détection OOD. Sur le benchmark CIFAR-100, RODD réduit de 26,97 % le taux de faux positifs (FPR@95) par rapport aux méthodes SOTA.