Le GIST et le RIST de l'entraînement itératif auto-supervisé pour la segmentation semi-supervisée

Nous considérons la tâche de la segmentation sémantique semi-supervisée, dans laquelle nous visons à produire des masques sémantiques pixel par pixel pour les objets, à partir d’un nombre restreint d’exemples d’apprentissage étiquetés manuellement. Nous nous concentrons sur les méthodes itératives d’auto-entraînement, en explorant le comportement de l’auto-entraînement au cours de plusieurs étapes de raffinement. Nous montrons qu’un auto-entraînement itératif conduit à une dégradation des performances si celui-ci est appliqué de manière naïve avec un ratio fixe entre les exemples étiquetés manuellement et les exemples pseudo-étiquetés. Nous proposons deux stratégies : Greedy Iterative Self-Training (GIST) et Random Iterative Self-Training (RIST), qui alternent, à chaque étape de raffinement, entre l’entraînement sur des données étiquetées manuellement ou sur des données pseudo-étiquetées, ce qui permet d’obtenir une amélioration des performances au lieu d’une dégradation. Nous démontrons également que GIST et RIST peuvent être combinés avec des méthodes existantes d’apprentissage semi-supervisé afin d’améliorer davantage leurs performances.