Command Palette
Search for a command to run...
Minderung von Geschlechtsbias in der Gesichtserkennung mittels des von-Mises-Fisher-Mischungsmodells
Minderung von Geschlechtsbias in der Gesichtserkennung mittels des von-Mises-Fisher-Mischungsmodells
Jean-Rémy Conti Nathan Noiry Vincent Despiegel Stéphane Gentric Stéphan Clémençon
Zusammenfassung
Trotz der hohen Leistungsfähigkeit und Zuverlässigkeit von Deep-Learning-Algorithmen in einer Vielzahl alltäglicher Anwendungen zeigen zahlreiche Untersuchungen, dass viele Modelle erhebliche Verzerrungen aufweisen, die bestimmte Bevölkerungsgruppen (z. B. Geschlecht, Ethnizität) benachteiligen. Dies zwingt Praktiker dazu, faire Systeme zu entwickeln, die eine gleichmäßige bzw. vergleichbare Leistung über sensible Gruppen hinweg aufweisen. In dieser Arbeit untersuchen wir die Geschlechtsverzerrung von Deep-Face-Recognition-Netzwerken. Um diese Verzerrung zu messen, führen wir zwei neue Metriken, BFAR und BFRR, ein, die die inhärenten Einsatzanforderungen von Face-Recognition-Systemen präziser widerspiegeln. Aus geometrischen Überlegungen heraus mitigieren wir die Geschlechtsverzerrung mittels einer neuen Nachbearbeitungsmethode, die die tiefen Embeddings eines vortrainierten Modells transformiert, um benachteiligten Untergruppen mehr Repräsentationskraft zu verleihen. Diese Methode basiert auf dem Training eines flachen neuronalen Netzwerks unter Minimierung einer fairen von-Mises-Fisher-Verlustfunktion, deren Hyperparameter die intra-klassische Varianz jedes Geschlechts berücksichtigen. Interessanterweise beobachten wir empirisch, dass diese Hyperparameter mit unseren Fairness-Metriken korrelieren. Tatsächlich zeigen umfangreiche numerische Experimente an verschiedenen Datensätzen, dass eine sorgfältige Auswahl der Hyperparameter die Geschlechtsverzerrung signifikant reduziert. Der für die Experimente verwendete Code ist unter https://github.com/JRConti/EthicalModule_vMF verfügbar.