f-AnoGAN : Détection rapide d’anomalies non supervisée basée sur les réseaux génératifs adverses
Obtenir des étiquettes expertes en imagerie clinique est difficile, car une annotation exhaustive est chronophage. En outre, tous les marqueurs potentiellement pertinents ne sont pas nécessairement connus a priori, ni suffisamment bien décrits pour guider l’annotation. Bien que l’apprentissage supervisé donne de bons résultats lorsque des données d’entraînement étiquetées par des experts sont disponibles, la variabilité visuelle, et donc le vocabulaire des anomalies que nous pouvons détecter et exploiter, reste limitée aux lésions annotées. Dans cet article, nous présentons fast AnoGAN (f-AnoGAN), une approche d’apprentissage non supervisé basée sur un réseau adversaire génératif (GAN) capable d’identifier des images et des segments d’images anormaux, pouvant servir de candidats à des biomarqueurs d’imagerie. Nous construisons un modèle générateur à partir de données d’entraînement saines, et proposons une technique rapide de projection de nouvelles données dans l’espace latent du GAN. Cette projection repose sur un encodeur entraîné, et les anomalies sont détectées à l’aide d’un score combiné d’anomalie fondé sur les composants du modèle entraîné – comprenant une erreur de résidu des caractéristiques du discriminateur et une erreur de reconstruction d’image. Dans les expériences réalisées sur des données de tomographie par cohérence optique (OCT), nous comparons la méthode proposée à des approches alternatives et fournissons des preuves empiriques complètes montrant que f-AnoGAN surpasse les approches alternatives et atteint une haute précision en détection d’anomalies. En outre, un test visuel de Turing mené avec deux experts rétiniens a démontré que les images générées sont indiscernables des images réelles normales d’OCT rétinienne. Le code de f-AnoGAN est disponible à l’adresse suivante : https://github.com/tSchlegl/f-AnoGAN.