Détection de distribution hors norme dense par apprentissage robuste sur des données négatives synthétiques

L'apprentissage automatique classique est incapable de traiter des entrées qui ne relèvent pas de la distribution d'apprentissage. Les modèles ainsi obtenus produisent fréquemment des prédictions erronées avec une grande confiance, pouvant entraîner des conséquences désastreuses. Ce problème est particulièrement critique dans le contexte des prédictions denses, car les images d'entrée peuvent être seulement partiellement anormales. Les travaux antérieurs ont abordé la détection des données hors distribution (out-of-distribution) en contexte dense par une formation discriminative utilisant des ensembles de données négatives préétablis. Toutefois, les données négatives réelles sont peu susceptibles de couvrir toutes les modalités du monde visuel global. À cet effet, nous étendons cette approche en générant des patches négatifs synthétiques le long de la frontière de la variété des données normales (inlier manifold). Nous exploitons un flot normalisant entraîné conjointement, grâce à un objectif d'apprentissage orienté vers la couverture et à sa capacité à générer des échantillons à différentes résolutions. Nous détectons les anomalies selon un critère informationnel fondé sur des principes théoriques, applicable de manière cohérente aussi bien pendant l'entraînement que pendant l'inférence. Les modèles ainsi obtenus établissent un nouveau record sur les benchmarks de détection des données hors distribution dans les scènes de conduite routière et les images de télédétection, malgré un surcoût computationnel minimal.