HyperAIHyperAI
vor 2 Monaten

Der variationale faire Autoencoder

Christos Louizos; Kevin Swersky; Yujia Li; Max Welling; Richard Zemel
Der variationale faire Autoencoder
Abstract

Wir untersuchen das Problem des Lernens von Repräsentationen, die gegenüber bestimmten störenden oder sensiblen Variationsfaktoren in den Daten invariant sind, während gleichzeitig so viel wie möglich der verbleibenden Information beibehalten wird. Unser Modell basiert auf einer variationsautoencoder-basierten Architektur mit Verteilungen, die die Unabhängigkeit zwischen sensiblen und latenten Variationsfaktoren fördern. Jegliche nachfolgende Verarbeitung, wie Klassifikation, kann dann auf dieser gereinigten latenten Repräsentation durchgeführt werden. Um eventuelle verbleibende Abhängigkeiten zu entfernen, integrieren wir einen zusätzlichen Strafterm, der auf der "Maximum Mean Discrepancy" (MMD)-Maßnahme basiert. Wir diskutieren, wie diese Architekturen effizient auf Daten trainiert werden können, und zeigen in Experimenten, dass diese Methode im Vergleich zu früheren Arbeiten effektiver ist, um unerwünschte Quellen von Variation zu entfernen, während sie zugleich informative latente Repräsentationen beibehält.