HyperAIHyperAI

Command Palette

Search for a command to run...

Lors de l'optimisation de la divergence fff, la robustesse face au bruit étiqueté

Jiaheng Wei Yang Liu

Résumé

Nous montrons sous quelles conditions la maximisation d'une mesure de divergence fff bien définie par rapport aux prédictions d'un classificateur et aux étiquettes supervisées est robuste en présence de bruit d'étiquettes. En exploitant sa forme variationnelle, nous dérivons une propriété de découplage élégante pour une famille de mesures de divergence fff en présence de bruit d'étiquettes, selon laquelle la divergence se révèle être une combinaison linéaire de la différence variationnelle définie sur la distribution propre et d'un terme d'biais introduit par le bruit. Cette dérivation permet d’analyser la robustesse de différentes fonctions de divergence fff. Grâce à cette robustesse établie, cette famille de mesures de divergence fff s'avère être un outil utile pour le problème de l'apprentissage avec des étiquettes bruitées, sans nécessiter la connaissance préalable du taux de bruit des étiquettes. Lorsqu’elles ne sont pas intrinsèquement robustes, nous proposons des corrections pour les rendre telles. En complément des résultats analytiques, nous fournissons une vaste documentation expérimentale. Notre code est disponible à l’adresse suivante : https://github.com/UCSC-REAL/Robust-f-divergence-measures.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Lors de l'optimisation de la divergence $f$, la robustesse face au bruit étiqueté | Articles | HyperAI