HyperAIHyperAI
il y a 2 mois

Régularisation de l'entropie de la fonction de perte pour des frontières de décision diversifiées

Sue Sin Chong
Régularisation de l'entropie de la fonction de perte pour des frontières de décision diversifiées
Résumé

Est-il possible d'entraîner plusieurs classifieurs pour effectuer une tâche de crowdsourcing significative afin de produire un ensemble de labels de prédiction amélioré sans annotation de vérité terrain ? Cet article modifie les objectifs d'apprentissage par contraste pour entraîner automatiquement un ensemble auto-complémentaire capable de produire des prédictions de pointe sur les tâches CIFAR10 et CIFAR100-20. Il présente une méthode simple pour modifier une seule pipeline de classification non supervisée afin de générer automatiquement un ensemble de réseaux neuronaux avec des frontières décisionnelles variées, permettant ainsi d'apprendre un ensemble plus large de caractéristiques des classes. Les termes de régularisation de l'entropie des fonctions de perte (LFER) sont ajoutés aux fonctions de perte pré-entraînées et d'apprentissage par contraste. LFER est un outil permettant de modifier l'état d'entropie de l'espace de sortie de l'apprentissage non supervisé, diversifiant ainsi la représentation latente des frontières décisionnelles des réseaux neuronaux. Un ensemble entraîné avec LFER présente une précision prédictive supérieure pour les échantillons situés près des frontières décisionnelles. LFER est un outil approprié pour perturber les frontières décisionnelles et a produit des classifieurs surpassant l'état de l'art lors du stade d'apprentissage par contraste. Les expériences montrent que LFER peut générer un ensemble dont la précision est comparable à celle de l'état de l'art tout en présentant des frontières décisionnelles latentes variées. Cela nous permet d'effectuer une vérification significative pour les échantillons situés près des frontières décisionnelles, favorisant ainsi la classification correcte des échantillons proches des frontières. En combinant la probabilité de prédiction correcte d'un seul échantillon au sein d'un ensemble de réseaux neuronaux entraînés, notre méthode peut améliorer la performance d'un seul classifieur en réduisant le bruit et en confirmant les mappages corrects des caractéristiques.Note : La traduction a été adaptée pour respecter le style formel et académique requis dans le domaine scientifique ou technologique, tout en conservant la fidélité au texte original. Les termes techniques ont été traduits selon leur usage courant en français dans ce domaine.

Régularisation de l'entropie de la fonction de perte pour des frontières de décision diversifiées | Articles de recherche récents | HyperAI