HyperAIHyperAI

Command Palette

Search for a command to run...

Diviser et Contraster : Apprentissage non supervisé à partir de données non curatrices

Yonglong Tian Olivier J. Henaff Aaron van den Oord

Résumé

L’apprentissage auto-supervisé présente un fort potentiel pour exploiter de grandes quantités de données non étiquetées, mais une grande partie de ses progrès jusqu’à présent s’est limitée à des jeux de données de pré-entraînement fortement curatifs, tels que ImageNet. Nous explorons les effets de l’apprentissage par contraste à partir de jeux de données d’images plus volumineux et moins curatifs, comme YFCC, et constatons effectivement une différence importante dans la qualité des représentations obtenues. Nous hypothesons que cet écart de curatisme s’explique par un changement dans la distribution des classes d’images — plus diversifiée et à queue lourde — entraînant ainsi des exemples négatifs moins pertinents pour l’apprentissage. Nous testons cette hypothèse à l’aide d’une nouvelle approche, appelée Divide and Contrast (DnC), qui alterne entre apprentissage par contraste et extraction de négatifs difficiles basée sur le regroupement (clustering). Lorsqu’il est pré-entraîné sur des jeux de données moins curatifs, DnC améliore considérablement les performances de l’apprentissage auto-supervisé sur des tâches en aval, tout en restant compétitif avec l’état de l’art actuel sur des jeux de données curatifs.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Diviser et Contraster : Apprentissage non supervisé à partir de données non curatrices | Articles | HyperAI