HyperAIHyperAI

Command Palette

Search for a command to run...

Transformers de vision en 2022 : un état des lieux sur Tiny ImageNet

Ethan Huynh

Résumé

Les avancées récentes des transformateurs d’images ont obtenu des résultats remarquables, réduisant largement l’écart entre les architectures traditionnelles basées sur les réseaux de neurones convolutifs (CNN). La procédure standard consiste à entraîner sur de grandes bases de données telles qu’ImageNet-21k, puis à finetuner sur ImageNet-1k. Après cette étape de finetuning, les recherches examinent fréquemment la performance en apprentissage par transfert sur des jeux de données plus petits, comme CIFAR-10 ou CIFAR-100, mais ont généralement négligé Tiny ImageNet. Ce papier présente une mise à jour sur les performances des transformateurs visuels sur Tiny ImageNet. Nous étudions notamment le Vision Transformer (ViT), le Data Efficient Image Transformer (DeiT), le Class Attention in Image Transformer (CaiT) ainsi que les Swin Transformers. En outre, les Swin Transformers surpassent le résultat actuel de l’état de l’art avec une précision de validation atteignant 91,35 %. Le code est disponible à l’adresse suivante : https://github.com/ehuynh1106/TinyImageNet-Transformers


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Transformers de vision en 2022 : un état des lieux sur Tiny ImageNet | Articles | HyperAI