HyperAIHyperAI

Command Palette

Search for a command to run...

Der variationale faire Autoencoder

Christos Louizos; Kevin Swersky; Yujia Li; Max Welling; Richard Zemel

Zusammenfassung

Wir untersuchen das Problem des Lernens von Repräsentationen, die gegenüber bestimmten störenden oder sensiblen Variationsfaktoren in den Daten invariant sind, während gleichzeitig so viel wie möglich der verbleibenden Information beibehalten wird. Unser Modell basiert auf einer variationsautoencoder-basierten Architektur mit Verteilungen, die die Unabhängigkeit zwischen sensiblen und latenten Variationsfaktoren fördern. Jegliche nachfolgende Verarbeitung, wie Klassifikation, kann dann auf dieser gereinigten latenten Repräsentation durchgeführt werden. Um eventuelle verbleibende Abhängigkeiten zu entfernen, integrieren wir einen zusätzlichen Strafterm, der auf der "Maximum Mean Discrepancy" (MMD)-Maßnahme basiert. Wir diskutieren, wie diese Architekturen effizient auf Daten trainiert werden können, und zeigen in Experimenten, dass diese Methode im Vergleich zu früheren Arbeiten effektiver ist, um unerwünschte Quellen von Variation zu entfernen, während sie zugleich informative latente Repräsentationen beibehält.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp