Diagnostic du cancer du sein dans la mammographie à deux vues à l'aide d'un réseau convolutif basé sur EfficientNet entraîné de bout en bout

Certaines études récentes ont décrit l'utilisation de réseaux neuronaux convolutifs profonds pour diagnostiquer le cancer du sein dans les mammographies, avec des performances similaires ou même supérieures à celles des experts humains. L'une des meilleures techniques effectue deux transferts d'apprentissage : le premier utilise un modèle formé sur des images naturelles pour créer un « classifieur de patchs » qui catégorise de petits sous-images ; le second utilise ce classifieur de patchs pour analyser l'ensemble de la mammographie et créer un « classifieur d'image entière mono-vue ». Nous proposons d'effectuer un troisième transfert d'apprentissage afin d'obtenir un « classifieur bi-vue » utilisant les deux vues mammographiques : craniocaudale bilatérale et oblique médio-latérale. Nous utilisons EfficientNet comme base de notre modèle. Nous entraînons l'ensemble du système « end-to-end » en utilisant le jeu de données CBIS-DDSM. Pour garantir une robustesse statistique, nous testons notre système deux fois en utilisant : (a) une validation croisée à 5 plis ; et (b) la division originale entre les ensembles d'entraînement et de test du jeu de données. Notre technique a atteint un AUC de 0.9344 en utilisant la validation croisée à 5 plis (avec une précision, une sensibilité et une spécificité de 85,13 % au point d'égalité des taux d'erreur de la courbe ROC). En utilisant la division originale du jeu de données, notre technique a obtenu un AUC de 0.8483, qui est, selon nos connaissances, le plus haut AUC rapporté pour ce problème, bien que les subtilités des conditions de test dans chaque travail n'autorisent pas une comparaison précise. Le code d'inférence et le modèle sont disponibles à l'adresse suivante : https://github.com/dpetrini/two-views-classifier