Un réseau de convolution à noyau large à décomposition rectangulaire légère pour l’alignement déformable d’images médicales.
Les performances et la vitesse de l’alignement d’images médicales ont été considérablement améliorées grâce aux méthodes avancées basées sur l’apprentissage profond. Toutefois, la plupart des approches actuelles peinent face aux grandes déformations entre les images d’entrée, ce qui oblige à un compromis entre coût computationnel et capacité du modèle à capturer un champ réceptif étendu ainsi qu’à modéliser les relations spatiales à longue portée, essentielles pour améliorer la précision de l’alignement. Afin d’améliorer les performances de l’alignement d’images soumises à de fortes déformations tout en maintenant un faible coût computationnel, nous proposons dans cet article un modèle léger, nommé LL-Net, capable de modéliser à la fois de grands champs réceptifs et des relations spatiales à longue portée. Les composants centraux de LL-Net sont une couche d’attention à noyau large par décomposition rectangulaire (RD-LKA) et une couche d’attention de fusion spatiale et canal (SC-Fusion). La couche RD-LKA utilise des convolutions à noyau large anisotropes et dépourvues de profondeur pour capturer des champs réceptifs étendus avec un nombre extrêmement faible de paramètres, tout en modélisant efficacement les relations spatiales à longue portée. Par ailleurs, la couche SC-Fusion renforce la capacité de fusion des caractéristiques du modèle et améliore la représentation des caractéristiques aux points critiques. LL-Net atteint des performances de pointe sur plusieurs jeux de données : il obtient un score Dice de 76,7 % et un HD95 de 2,983 mm sur le jeu de données IXI, ainsi qu’un score Dice de 87,8 % et un HD95 de 1,042 mm sur le jeu de données OASIS. Les résultats expérimentaux confirment l’efficacité de LL-Net dans la capture de grands champs réceptifs et la modélisation de relations spatiales à longue portée. Le code source de LL-Net est disponible à l’adresse suivante : https://github.com/BoyOfChu/LL_Net.