HyperAIHyperAI
il y a 8 jours

Lors de l'optimisation de la divergence $f$, la robustesse face au bruit étiqueté

Jiaheng Wei, Yang Liu
Lors de l'optimisation de la divergence $f$, la robustesse face au bruit étiqueté
Résumé

Nous montrons sous quelles conditions la maximisation d'une mesure de divergence $f$ bien définie par rapport aux prédictions d'un classificateur et aux étiquettes supervisées est robuste en présence de bruit d'étiquettes. En exploitant sa forme variationnelle, nous dérivons une propriété de découplage élégante pour une famille de mesures de divergence $f$ en présence de bruit d'étiquettes, selon laquelle la divergence se révèle être une combinaison linéaire de la différence variationnelle définie sur la distribution propre et d'un terme d'biais introduit par le bruit. Cette dérivation permet d’analyser la robustesse de différentes fonctions de divergence $f$. Grâce à cette robustesse établie, cette famille de mesures de divergence $f$ s'avère être un outil utile pour le problème de l'apprentissage avec des étiquettes bruitées, sans nécessiter la connaissance préalable du taux de bruit des étiquettes. Lorsqu’elles ne sont pas intrinsèquement robustes, nous proposons des corrections pour les rendre telles. En complément des résultats analytiques, nous fournissons une vaste documentation expérimentale. Notre code est disponible à l’adresse suivante : https://github.com/UCSC-REAL/Robust-f-divergence-measures.

Lors de l'optimisation de la divergence $f$, la robustesse face au bruit étiqueté | Articles de recherche récents | HyperAI