HyperAIHyperAI
il y a 17 jours

Transformateur d’imputation pour la détection d’anomalies

Jonathan Pirnay, Keng Chai
Transformateur d’imputation pour la détection d’anomalies
Résumé

La détection d’anomalies en vision par ordinateur consiste à identifier des images qui s’écartent d’un ensemble d’images normales. Une approche courante consiste à entraîner des auto-encodeurs convolutifs profonds afin de remplir les parties couvertes d’une image, puis à comparer la sortie avec l’image d’origine. En s’entraînant uniquement sur des échantillons sans anomalies, on suppose que le modèle ne parvient pas à reconstruire correctement les régions anormales. Pour la détection d’anomalies par remplissage (inpainting), nous proposons qu’il soit avantageux d’intégrer des informations provenant de régions potentiellement éloignées. Plus précisément, nous formulons la détection d’anomalies comme un problème de remplissage par patchs et proposons de le résoudre à l’aide d’une approche entièrement basée sur l’attention auto-attention, tout en éliminant les opérations de convolution. Le modèle proposé, nommé Inpainting Transformer (InTra), est entraîné à remplir des patchs couverts dans une séquence étendue de patchs d’image, permettant ainsi une intégration d’informations sur de grandes régions de l’image d’entrée. Lorsqu’il est entraîné à partir de zéro, et en comparaison avec d’autres méthodes n’utilisant pas de données d’entraînement supplémentaires, InTra atteint des performances équivalentes à l’état de l’art actuel sur le jeu de données MVTec AD pour la détection, tout en dépassant ces méthodes pour la segmentation.

Transformateur d’imputation pour la détection d’anomalies | Articles de recherche récents | HyperAI