Apprentissage conjoint de représentations convolutionnelles pour compresser des images radiologiques et classifier les maladies thoraciques dans le domaine compressé
Les modèles d’apprentissage profond entraînés sur des images naturelles sont couramment utilisés pour diverses tâches de classification dans le domaine médical. En général, les images médicales de très grande dimension sont réduites en résolution à l’aide de techniques d’interpolation avant d’être introduites dans des modèles d’apprentissage profond conformes à ImageNet, qui ne prennent en entrée que des images de faible résolution de taille 224 × 224 pixels. Cette approche courante peut entraîner une perte d’informations clés, nuisant ainsi à la précision de la classification. En effet, les caractéristiques pathologiques significatives présentes dans les images médicales sont généralement de petite taille et très sensibles aux pertes de résolution. Pour contrer ce problème, nous proposons une approche de classification basée sur un réseau de neurones convolutifs (CNN) qui apprend simultanément à réduire la résolution de l’image via un autoencodeur et à la classer à l’aide d’un autre réseau, les deux tâches étant entraînées conjointement. Cet algorithme guide le modèle à extraire des représentations essentielles à partir d’images haute résolution, tant pour la classification que pour la reconstruction. Nous avons évalué cette approche sur un jeu de données public de radiographies thoraciques et obtenu des résultats supérieurs aux états de l’art sur les données de test. En outre, nous avons étudié l’impact de différentes stratégies d’augmentation de données sur ce jeu de données et fournissons des seuils de référence basés sur des CNNs bien établis appartenant à la famille ImageNet.