HyperAIHyperAI
il y a 17 jours

Apprentissage de représentations visuelles pour le transfert d'apprentissage par suppression de texture

Shlok Mishra, Anshul Shah, Ankan Bansal, Janit Anjaria, Jonghyun Choi, Abhinav Shrivastava, Abhishek Sharma, David Jacobs
Apprentissage de représentations visuelles pour le transfert d'apprentissage par suppression de texture
Résumé

Les travaux récents ont montré que les caractéristiques extraites à partir d’un entraînement supervisé de réseaux de neurones convolutifs (CNN) peuvent survaloriser les textures au détriment de l’encodage d’informations de haut niveau. En apprentissage auto-supervisé en particulier, la texture, en tant que signal de bas niveau, peut offrir des raccourcis qui empêchent le réseau d’apprendre des représentations de niveau supérieur. Pour remédier à ces problèmes, nous proposons d’utiliser des méthodes classiques fondées sur la diffusion anisotrope afin d’enrichir l’entraînement à l’aide d’images dont la texture est atténuée. Cette méthode simple permet de préserver efficacement les informations essentielles sur les contours tout en supprimant simultanément la texture. Nous démontrons empiriquement que notre approche atteint des résultats de pointe sur la détection d’objets et la classification d’images, sur huit jeux de données diversifiés, dans des tâches d’apprentissage supervisé ou auto-supervisé telles que MoCoV2 et Jigsaw. Notre méthode s’avère particulièrement efficace pour les tâches d’apprentissage par transfert, où nous observons une amélioration des performances sur cinq jeux de données standards. Les gains importants (jusqu’à 11,49 %) observés sur le jeu de données Sketch-ImageNet, ainsi que sur le jeu DTD, accompagnés d’analyses visuelles supplémentaires basées sur des cartes de saillance, suggèrent que notre approche favorise l’apprentissage de représentations plus pertinentes, capables de se transférer de manière plus efficace.