Réduction de l'incertitude d'activation de classe avec des informations de fond

L'apprentissage multitâche est une approche populaire pour l'entraînement de réseaux neuronaux à haute performance avec une meilleure généralisation. Dans cet article, nous proposons une classe de fond pour atteindre une meilleure généralisation avec un coût de calcul moindre par rapport à l'apprentissage multitâche, afin d'aider les chercheurs et les organisations disposant d'une puissance de calcul limitée. Nous présentons également une méthodologie pour la sélection d'images de fond et discutons des améliorations potentielles futures. Nous appliquons notre approche à plusieurs ensembles de données et obtenons une meilleure généralisation avec un coût de calcul beaucoup plus faible. Grâce aux cartes d'activation de classe (CAMs) des modèles entraînés, nous avons observé une tendance à considérer un tableau plus large avec la méthodologie proposée pour l'entraînement des modèles. En utilisant le vision transformer avec la classe de fond proposée, nous obtenons des performances au niveau de l'état de l'art (SOTA) sur les ensembles de données CIFAR-10C, Caltech-101 et CINIC-10. Des exemples de scripts sont disponibles dans le dossier CAM du dépôt GitHub suivant : github.com/dipuk0506/UQ