HyperAIHyperAI

Command Palette

Search for a command to run...

Transformateur d’image hiérarchique à multiples échelles avec décodage par attention en cascade pour la segmentation d’images médicales

Md Mostafijur Rahman Radu Marculescu

Résumé

Les Transformers ont démontré un succès considérable dans la segmentation d’images médicales. Toutefois, les Transformers peuvent présenter une capacité de généralisation limitée en raison du mécanisme fondamental d’attention auto-associative à échelle unique (SA). Dans cet article, nous abordons ce problème en proposant un réseau principal, appelé MERIT (Multi-scale hiERarchical vIsion Transformer), qui améliore la généralisabilité du modèle en calculant l’attention auto-associative à plusieurs échelles. Nous intégrons également un décodeur basé sur l’attention, nommé Cascaded Attention Decoding (CASCADE), afin de raffiner davantage les caractéristiques multi-étapes générées par MERIT. Enfin, nous introduisons une méthode efficace d’agrégation de pertes par mélange de caractéristiques multi-étapes, appelée MUTATION, pour une formation améliorée du modèle via une ensemblage implicite. Nos expériences sur deux benchmarks largement utilisés pour la segmentation d’images médicales (à savoir Synapse Multi-organ et ACDC) démontrent la supériorité de MERIT par rapport aux méthodes de pointe. L’architecture MERIT ainsi que l’agrégation de pertes MUTATION peuvent être facilement adaptées à diverses tâches ultérieures de segmentation d’images médicales et de segmentation sémantique.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp