HyperAIHyperAI

Command Palette

Search for a command to run...

L'Autoencodeur Équitable Variationnel

Christos Louizos; Kevin Swersky; Yujia Li; Max Welling; Richard Zemel

Résumé

Nous examinons le problème d'apprentissage de représentations qui sont invariantes à certains facteurs de variation indésirables ou sensibles dans les données tout en conservant autant que possible l'information restante. Notre modèle est basé sur une architecture d'auto-encodeur variationnel avec des a priori qui favorisent l'indépendance entre les facteurs de variation sensibles et latents. Tout traitement ultérieur, tel que la classification, peut ensuite être effectué sur cette représentation latente purgée. Pour éliminer toute dépendance résiduelle, nous intégrons un terme de pénalité supplémentaire basé sur la mesure de "Divergence Moyenne Maximale" (Maximum Mean Discrepancy - MMD). Nous discutons de la manière dont ces architectures peuvent être formées efficacement sur les données et montrons par des expériences que cette méthode est plus efficace que les travaux précédents pour supprimer les sources de variation indésirables tout en maintenant des représentations latentes informatives.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp