HyperAIHyperAI
il y a 17 jours

ViT-NeT : Transformateurs Vision Interprétables avec Décodage par Arbre Neuronal

{Sangwon Kim; Jaeyeal Nam; Byoung Chul Ko}
ViT-NeT : Transformateurs Vision Interprétables avec Décodage par Arbre Neuronal
Résumé

Les transformateurs d’images (Vision Transformers, ViTs), qui ont démontré des performances de pointe dans la classification d’images, permettent également d’obtenir des interprétations globales grâce aux contributions basées sur l’attention. Toutefois, la complexité du modèle rend difficile l’interprétation du processus de prise de décision, tandis que l’ambiguïté des cartes d’attention peut entraîner des corrélations erronées entre les patches d’image. Dans cette étude, nous proposons un nouveau décodeur arborescent neuronal pour ViT, appelé ViT-NeT. Un ViT sert de squelette (backbone), et pour surmonter ses limitations, les patches d’image contextuels en sortie sont traités par le NeT proposé. Le NeT vise à classifier avec précision des objets à granularité fine présentant des corrélations inter-classes similaires mais des corrélations intra-classes différentes. En outre, il décrit le processus décisionnel à l’aide d’une structure arborescente et de prototypes, permettant ainsi une interprétation visuelle des résultats. Le ViT-NeT proposé est conçu non seulement pour améliorer les performances de classification, mais aussi pour offrir une interprétation intuitive pour l’humain, ce qui s’avère efficace pour résoudre le compromis entre performance et interprétabilité. Nous avons comparé les performances du ViT-NeT à celles d’autres méthodes de pointe à l’aide de jeux de données largement utilisés pour la catégorisation visuelle à granularité fine, et nous avons expérimentalement démontré que la méthode proposée excelle en termes de performance de classification et d’interprétabilité. Le code et les modèles sont disponibles publiquement à l’adresse suivante : https://github.com/jumpsnack/ViT-NeT.