HyperAIHyperAI
il y a 2 mois

Régularisation Avec des Transformations et des Perturbations Stochastiques pour l'Apprentissage Semi-Supervisé Profond

Mehdi Sajjadi; Mehran Javanmardi; Tolga Tasdizen
Régularisation Avec des Transformations et des Perturbations Stochastiques pour l'Apprentissage Semi-Supervisé Profond
Résumé

Les réseaux de neurones convolutifs efficaces sont formés à partir de grands ensembles de données étiquetées. Cependant, la création de grands ensembles de données étiquetées est une tâche très coûteuse et chronophage. L'apprentissage semi-supervisé utilise des données non étiquetées pour former un modèle avec une précision supérieure lorsque l'ensemble de données étiquetées disponible est limité. Dans cet article, nous abordons le problème de l'apprentissage semi-supervisé avec des réseaux de neurones convolutifs. Des techniques telles que l'augmentation aléatoire des données, le dropout et le max-pooling aléatoire offrent une meilleure généralisation et stabilité pour les classifieurs formés par descente de gradient. Plusieurs passages d'un échantillon individuel à travers le réseau peuvent entraîner des prédictions différentes en raison du comportement non déterministe de ces techniques. Nous proposons une fonction de perte non supervisée qui tire parti du caractère stochastique de ces méthodes et minimise la différence entre les prédictions de plusieurs passages d'un échantillon d'entraînement à travers le réseau. Nous évaluons la méthode proposée sur plusieurs ensembles de données de référence.

Régularisation Avec des Transformations et des Perturbations Stochastiques pour l'Apprentissage Semi-Supervisé Profond | Articles de recherche récents | HyperAI