Initialisations par méta-apprentissage pour la segmentation d'images

Nous étendons les algorithmes de meta-apprentissage aveugles au modèle du premier ordre (notamment FOMAML et Reptile) au domaine de la segmentation d’images, présentons une nouvelle architecture de réseau neuronal conçue pour un apprentissage rapide, que nous appelons EfficientLab, et exploitons une définition formelle de l’erreur de test des algorithmes de meta-apprentissage afin de réduire l’erreur sur des tâches hors distribution. Nous obtenons des résultats de pointe sur le jeu de données FSS-1000 en meta-entraînant EfficientLab avec FOMAML et en utilisant une optimisation bayésienne pour déterminer les hyperparamètres optimaux du processus d’adaptation en temps de test. Nous avons également construit un petit jeu de données, FP-k, destiné à l’étude empirique de la performance des systèmes de meta-apprentissage dans des scénarios à peu de données (few-shot) et à beaucoup de données (many-shot). Sur le jeu de données FP-k, nous montrons que les initialisations apprises par meta-apprentissage apportent un avantage significatif pour la segmentation d’images classique en peu de données, mais que leur performance est rapidement égalée par l’apprentissage par transfert conventionnel, avec une équivalence des résultats dépassant 10 exemples étiquetés. Notre code, le modèle appris par meta-apprentissage et le jeu de données FP-k sont disponibles à l’adresse suivante : https://github.com/ml4ai/mliis.