Command Palette
Search for a command to run...
Der variationale faire Autoencoder
Der variationale faire Autoencoder
Christos Louizos; Kevin Swersky; Yujia Li; Max Welling; Richard Zemel
Zusammenfassung
Wir untersuchen das Problem des Lernens von Repräsentationen, die gegenüber bestimmten störenden oder sensiblen Variationsfaktoren in den Daten invariant sind, während gleichzeitig so viel wie möglich der verbleibenden Information beibehalten wird. Unser Modell basiert auf einer variationsautoencoder-basierten Architektur mit Verteilungen, die die Unabhängigkeit zwischen sensiblen und latenten Variationsfaktoren fördern. Jegliche nachfolgende Verarbeitung, wie Klassifikation, kann dann auf dieser gereinigten latenten Repräsentation durchgeführt werden. Um eventuelle verbleibende Abhängigkeiten zu entfernen, integrieren wir einen zusätzlichen Strafterm, der auf der "Maximum Mean Discrepancy" (MMD)-Maßnahme basiert. Wir diskutieren, wie diese Architekturen effizient auf Daten trainiert werden können, und zeigen in Experimenten, dass diese Methode im Vergleich zu früheren Arbeiten effektiver ist, um unerwünschte Quellen von Variation zu entfernen, während sie zugleich informative latente Repräsentationen beibehält.