Die GIST und RIST des iterativen Selbsttrainings für semi-supervised Segmentierung

Wir betrachten die Aufgabe der semi-supervised semantischen Segmentierung, bei der wir pixelgenaue semantische Objektmasken erzeugen wollen, ausgehend von nur einer geringen Anzahl menschlich annotierter Trainingsbeispiele. Wir konzentrieren uns auf iterative Selbsttrainingsmethoden, bei denen wir das Verhalten des Selbsttrainings über mehrere Verbesserungsstufen hinweg untersuchen. Wir zeigen, dass ein naiver Einsatz des iterativen Selbsttrainings mit einer festen Relation zwischen menschlich annotierten und pseudo-annotierten Trainingsbeispielen zu einer Leistungsverschlechterung führt. Wir stellen Strategien namens Greedy Iterative Self-Training (GIST) und Random Iterative Self-Training (RIST) vor, die in jeder Verbesserungsstufe zwischen dem Training auf menschlich annotierten Daten und dem Training auf pseudo-annotierten Daten wechseln und somit eine Leistungssteigerung statt einer Verschlechterung ermöglichen. Darüber hinaus zeigen wir, dass GIST und RIST mit bestehenden Methoden des semi-supervised Learning kombiniert werden können, um die Gesamtleistung weiter zu steigern.