HyperAIHyperAI

Command Palette

Search for a command to run...

Bei der Optimierung der fff-Divergenz ist die Robustheit gegenüber Etikettierungsrauschen gewährleistet

Jiaheng Wei Yang Liu

Zusammenfassung

Wir zeigen, unter welchen Bedingungen die Maximierung einer sorgfältig definierten fff-Divergenz bezüglich der Vorhersagen eines Klassifikators und der überwachten Labels robust gegenüber Label-Rauschen ist. Unter Ausnutzung ihrer variationalen Form leiten wir eine elegante Dekopplungseigenschaft für eine Familie von fff-Divergenzmaßen her, die im Falle von Label-Rauschen gilt, wobei sich die Divergenz als lineare Kombination der variationalen Differenz auf der sauberen Verteilung und eines durch das Rauschen eingeführten Bias-Terms darstellen lässt. Diese Ableitung ermöglicht es uns, die Robustheit verschiedener fff-Divergenzfunktionen zu analysieren. Aufgrund der nachgewiesenen Robustheit erweisen sich diese fff-Divergenzfunktionen als nützliche Metriken für das Lernen mit fehlerhaften Labels, ohne dass die Rauschrate der Labels spezifiziert werden muss. Sind die Funktionen hingegen möglicherweise nicht robust, schlagen wir Korrekturen vor, um ihre Robustheit zu gewährleisten. Neben den analytischen Ergebnissen präsentieren wir umfassende experimentelle Belege. Unser Code ist unter https://github.com/UCSC-REAL/Robust-f-divergence-measures verfügbar.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp