HyperAIHyperAI

Command Palette

Search for a command to run...

Amincissement de Patch pour des Transformers Visuels Efficaces

Yehui Tang Kai Han Yunhe Wang* Chang Xu Jianyuan Guo Chao Xu Dacheng Tao

Résumé

Ce travail étudie le problème d'efficacité des transformateurs visuels en identifiant et éliminant les calculs redondants dans les réseaux donnés. L'architecture de transformateur récente a démontré son efficacité pour obtenir d'excellents résultats sur une série de tâches de vision par ordinateur. Cependant, tout comme pour les réseaux neuronaux convolutifs, le coût computationnel élevé des transformateurs visuels reste un problème sévère. Étant donné que le mécanisme d'attention agrège différents patches couche par couche, nous proposons une nouvelle approche de réduction des patches qui élimine les patches inutiles selon un paradigme descendante. Nous identifions d'abord les patches efficaces dans la dernière couche, puis nous utilisons ces patches pour guider le processus de sélection des couches précédentes. Pour chaque couche, l'impact d'un patch sur la caractéristique finale de sortie est approximé, et les patches ayant moins d'impact seront supprimés. Les résultats expérimentaux sur des ensembles de données de référence montrent que la méthode proposée peut réduire considérablement les coûts computationnels des transformateurs visuels sans affecter leurs performances. Par exemple, plus de 45 % des FLOPs du modèle ViT-Ti peuvent être réduits avec une diminution de seulement 0,2 % de la précision top-1 sur l'ensemble de données ImageNet.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp