HyperAIHyperAI
il y a 11 jours

IPCL : Apprentissage contrastif pseudo-supervisé itératif pour améliorer la représentation de caractéristiques auto-supervisée

{Arijit Sur, Sonal Kumar; Anirudh Phukan}
Résumé

L'apprentissage auto-supervisé basé sur une approche contrastive par lot est devenu un outil puissant pour l'apprentissage de représentations en vision par ordinateur. La performance des tâches ultérieures est directement corrélée à la qualité des caractéristiques visuelles apprises durant le pré-entraînement auto-supervisé. Les approches contrastives par lot existantes dépendent fortement des augmentations de données pour extraire des informations latentes à partir d'ensembles de données non étiquetés. Nous soutenons qu'introduire la variation intra-classe du jeu de données dans une approche contrastive par lot permet d'améliorer davantage la qualité de la représentation visuelle. Dans cet article, nous proposons une nouvelle méthode d'apprentissage auto-supervisé nommée Apprentissage Contraste Par Itérations avec Pseudo-Étiquetage (IPCL), qui exploite une combinaison équilibrée entre des augmentations d'images et des informations de pseudo-classes afin d'améliorer itérativement la représentation visuelle. Les résultats expérimentaux montrent que notre méthode dépasse la méthode de base basée sur l'approche contrastive par lot. Elle améliore la qualité de la représentation visuelle sur plusieurs jeux de données, conduisant à de meilleures performances sur la tâche supervisée ultérieure de classification d'images non supervisée.

IPCL : Apprentissage contrastif pseudo-supervisé itératif pour améliorer la représentation de caractéristiques auto-supervisée | Articles de recherche récents | HyperAI