SURE : Recettes d’enquêtes pour construire des réseaux profonds fiables et robustes

Dans cet article, nous réexaminons les techniques d'estimation de l'incertitude au sein des réseaux neuronaux profonds et consolidons un ensemble de méthodes visant à améliorer leur fiabilité. Notre enquête montre qu'une application intégrée de techniques diverses — couvrant la régularisation du modèle, la classification et l'optimisation — améliore considérablement la précision des prédictions d'incertitude dans les tâches de classification d'images. L'effet synergie de ces techniques aboutit à notre nouvelle approche SURE. Nous évaluons rigoureusement SURE sur le banc d'essai de prédiction des échecs, une plateforme critique pour tester l'efficacité de l'estimation de l'incertitude. Nos résultats démontrent une performance constamment supérieure à celle des modèles qui appliquent individuellement chacune de ces techniques, sur divers ensembles de données et architectures de modèles. Lorsqu'elle est confrontée à des défis réels, tels que la corruption des données, le bruit des étiquettes et la distribution à queue longue des classes, SURE fait preuve d'une robustesse remarquable, offrant des résultats supérieurs ou comparables aux méthodes spécialisées actuelles de pointe. En particulier sur les jeux de données Animal-10N et Food-101N pour l'apprentissage avec des étiquettes bruyantes, SURE atteint une performance de pointe sans aucune ajustement spécifique à la tâche. Ce travail fixe non seulement un nouveau standard pour une estimation robuste de l'incertitude, mais ouvre également la voie à son application dans divers scénarios réels où la fiabilité est primordiale. Notre code est disponible à l'adresse \url{https://yutingli0606.github.io/SURE/}.