HyperAIHyperAI
vor 8 Tagen

Bei der Optimierung der $f$-Divergenz ist die Robustheit gegenüber Etikettierungsrauschen gewährleistet

Jiaheng Wei, Yang Liu
Bei der Optimierung der $f$-Divergenz ist die Robustheit gegenüber Etikettierungsrauschen gewährleistet
Abstract

Wir zeigen, unter welchen Bedingungen die Maximierung einer sorgfältig definierten $f$-Divergenz bezüglich der Vorhersagen eines Klassifikators und der überwachten Labels robust gegenüber Label-Rauschen ist. Unter Ausnutzung ihrer variationalen Form leiten wir eine elegante Dekopplungseigenschaft für eine Familie von $f$-Divergenzmaßen her, die im Falle von Label-Rauschen gilt, wobei sich die Divergenz als lineare Kombination der variationalen Differenz auf der sauberen Verteilung und eines durch das Rauschen eingeführten Bias-Terms darstellen lässt. Diese Ableitung ermöglicht es uns, die Robustheit verschiedener $f$-Divergenzfunktionen zu analysieren. Aufgrund der nachgewiesenen Robustheit erweisen sich diese $f$-Divergenzfunktionen als nützliche Metriken für das Lernen mit fehlerhaften Labels, ohne dass die Rauschrate der Labels spezifiziert werden muss. Sind die Funktionen hingegen möglicherweise nicht robust, schlagen wir Korrekturen vor, um ihre Robustheit zu gewährleisten. Neben den analytischen Ergebnissen präsentieren wir umfassende experimentelle Belege. Unser Code ist unter https://github.com/UCSC-REAL/Robust-f-divergence-measures verfügbar.

Bei der Optimierung der $f$-Divergenz ist die Robustheit gegenüber Etikettierungsrauschen gewährleistet | Neueste Forschungsarbeiten | HyperAI