HyperAIHyperAI

Command Palette

Search for a command to run...

HRFormer : Transformateur à Haute Résolution pour la Prédiction Densifiée

Yuhui Yuan Rao Fu Lang Huang Weihong Lin Chao Zhang Xilin Chen Jingdong Wang

Résumé

Nous présentons un modèle High-Resolution Transformer (HRFormer), conçu pour apprendre des représentations à haute résolution destinées aux tâches de prédiction dense, contrairement au Vision Transformer original qui génère des représentations à basse résolution et présente un coût mémoire et computationnel élevé. Nous exploitons l’architecture parallèle à multi-résolution introduite dans les réseaux convolutionnels à haute résolution (HRNet), combinée à une attention auto-associative locale agissant sur de petites fenêtres d’image non chevauchantes, afin d’améliorer l’efficacité mémoire et computationnelle. En outre, nous intégrons une opération de convolution dans le bloc Feed-Forward Network (FFN) afin d’échanger des informations entre les fenêtres d’image disjointes. Nous démontrons l’efficacité du High-Resolution Transformer sur des tâches telles que l’estimation de posture humaine et la segmentation sémantique. Par exemple, HRFormer dépasse Swin Transformer de 1,3 point d’AP sur la tâche d’estimation de posture COCO, tout en utilisant 50 % de paramètres et 30 % de FLOPs en moins. Le code est disponible à l’adresse suivante : https://github.com/HRNet/HRFormer.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
HRFormer : Transformateur à Haute Résolution pour la Prédiction Densifiée | Articles | HyperAI