Une stratégie d’apprentissage pour la segmentation d’IRM indépendante du contraste

Nous présentons une stratégie d’apprentissage profond qui, pour la première fois, permet une segmentation sémantique aveugle au contraste de scanners cérébraux IRM entièrement non prétraités, sans nécessiter d’entraînement supplémentaire ni de fin-tuning pour de nouvelles modalités. Les méthodes bayésiennes classiques abordent ce problème de segmentation à l’aide de modèles d’intensité non supervisés, mais exigent des ressources computationnelles importantes. En revanche, les méthodes fondées sur l’apprentissage peuvent être rapides au moment de l’évaluation, mais sont sensibles aux données disponibles pendant l’entraînement. La méthode proposée, SynthSeg, exploite un ensemble de masques de segmentation d’entraînement (sans nécessiter d’images d’intensité) pour générer en temps réel, durant l’entraînement, des images synthétiques présentant des contrastes très variés. Ces échantillons sont produits à l’aide du modèle génératif du cadre classique de segmentation bayésienne, en utilisant des paramètres aléatoires pour l’apparence, la déformation, le bruit et le champ de biais. En raison du contraste synthétique différent pour chaque mini-batch, le réseau final n’est pas biaisé vers un contraste d’IRM particulier. Nous évaluons de manière exhaustive notre approche sur quatre jeux de données comprenant plus de 1 000 sujets et quatre types de contraste IRM. Les résultats montrent que notre méthode parvient à segmenter correctement chaque contraste présent dans les données, avec des performances légèrement supérieures à celles des méthodes bayésiennes classiques, et trois ordres de grandeur plus rapidement. De plus, même au sein du même type de contraste IRM, notre stratégie généralise de manière significativement meilleure entre les jeux de données, comparée à l’entraînement à partir d’images réelles. Enfin, nous constatons que la synthèse d’une large gamme de contrastes, même peu réalistes, améliore la généralisation du réseau neuronal. Notre code et modèle sont disponibles en open source sur https://github.com/BBillot/SynthSeg.