HyperAIHyperAI

Command Palette

Search for a command to run...

Régularisation Avec des Transformations et des Perturbations Stochastiques pour l'Apprentissage Semi-Supervisé Profond

Mehdi Sajjadi Mehran Javanmardi Tolga Tasdizen

Résumé

Les réseaux de neurones convolutifs efficaces sont formés à partir de grands ensembles de données étiquetées. Cependant, la création de grands ensembles de données étiquetées est une tâche très coûteuse et chronophage. L'apprentissage semi-supervisé utilise des données non étiquetées pour former un modèle avec une précision supérieure lorsque l'ensemble de données étiquetées disponible est limité. Dans cet article, nous abordons le problème de l'apprentissage semi-supervisé avec des réseaux de neurones convolutifs. Des techniques telles que l'augmentation aléatoire des données, le dropout et le max-pooling aléatoire offrent une meilleure généralisation et stabilité pour les classifieurs formés par descente de gradient. Plusieurs passages d'un échantillon individuel à travers le réseau peuvent entraîner des prédictions différentes en raison du comportement non déterministe de ces techniques. Nous proposons une fonction de perte non supervisée qui tire parti du caractère stochastique de ces méthodes et minimise la différence entre les prédictions de plusieurs passages d'un échantillon d'entraînement à travers le réseau. Nous évaluons la méthode proposée sur plusieurs ensembles de données de référence.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp