HyperAIHyperAI

Command Palette

Search for a command to run...

Augmentation des Vision Transformers

Xiaohua Zhai Alexander Kolesnikov Neil Houlsby Lucas Beyer

Résumé

Les réseaux neuronaux basés sur l’attention, tels que le Vision Transformer (ViT), ont récemment atteint des résultats de pointe sur de nombreuses benchmarks en vision par ordinateur. L’échelle est un facteur essentiel pour obtenir de très bons résultats, aussi la compréhension des propriétés d’échelle d’un modèle constitue-t-elle une clé pour concevoir efficacement les générations futures. Bien que les lois régissant l’échelle des modèles linguistiques Transformer aient été étudiées, le comportement d’échelle des Vision Transformers reste inconnu. Pour y remédier, nous avons étudié l’échelle des modèles ViT ainsi que celle des données, en les faisant varier à la fois à la hausse et à la baisse, et avons caractérisé les relations entre le taux d’erreur, la quantité de données et la puissance de calcul. Au cours de cette étude, nous avons affiné l’architecture et la phase d’entraînement du ViT, réduisant ainsi la consommation de mémoire tout en améliorant la précision des modèles obtenus. En conséquence, nous avons réussi à entraîner un modèle ViT de deux milliards de paramètres, atteignant une nouvelle performance record sur ImageNet avec une précision top-1 de 90,45 %. Ce modèle se distingue également par de très bonnes performances en transfert à très peu d’exemples, par exemple atteignant 84,86 % de précision top-1 sur ImageNet avec seulement 10 exemples par classe.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Augmentation des Vision Transformers | Articles | HyperAI