HyperAIHyperAI
il y a 15 jours

Pré-entraînement sur ImageNet-21K pour tous

Tal Ridnik, Emanuel Ben-Baruch, Asaf Noy, Lihi Zelnik-Manor
Pré-entraînement sur ImageNet-21K pour tous
Résumé

ImageNet-1K constitue le jeu de données principal pour le préentraînement des modèles d'apprentissage profond dans les tâches de vision par ordinateur. En dépit de sa taille plus importante et de sa diversité accrue, le jeu de données ImageNet-21K est moins fréquemment utilisé pour le préentraînement, principalement en raison de sa complexité, de son faible accès et de la sous-estimation de sa valeur ajoutée. Ce papier vise à combler cet écart et à rendre accessible à tous un préentraînement efficace et de haute qualité sur ImageNet-21K. Grâce à une étape de prétraitement dédiée, à l'exploitation de la structure hiérarchique de WordNet, ainsi qu'à un nouveau schéma d'entraînement appelé « semantic softmax », nous démontrons que divers modèles bénéficient significativement du préentraînement sur ImageNet-21K sur de nombreuses bases de données et tâches, y compris les modèles légers orientés mobile. Nous montrons également que notre approche surpasser les précédents schémas de préentraînement sur ImageNet-21K pour des modèles récents et remarquables tels que ViT et Mixer. La pipeline de préentraînement proposée est efficace, accessible et permet d’obtenir des résultats de state-of-the-art reproductibles à partir d’un jeu de données publiquement disponible. Le code d’entraînement et les modèles préentraînés sont disponibles à l’adresse suivante : https://github.com/Alibaba-MIIL/ImageNet21K

Pré-entraînement sur ImageNet-21K pour tous | Articles de recherche récents | HyperAI