HyperAIHyperAI
vor 2 Monaten

Geführte Destillation für die semi-supervisierte Instanzsegmentierung

Tariq Berrada; Camille Couprie; Karteek Alahari; Jakob Verbeek
Geführte Destillation für die semi-supervisierte Instanzsegmentierung
Abstract

Obwohl die Methoden der Instanzsegmentierung erheblich verbessert wurden, ist das vorherrschende Paradigma weiterhin die Verwendung vollständig annotierter Trainingsbilder, deren Erstellung zeitaufwendig und mühsam ist. Um diese Abhängigkeit zu reduzieren und die Ergebnisse zu verbessern, nutzen halbüberwachte Ansätze unannotierte Daten als zusätzliches Trainingsignal, das das Überanpassen an die annotierten Beispiele begrenzt. In diesem Kontext präsentieren wir neue Designentscheidungen, um Lehrer-Schüler-Distillationsmodelle erheblich zu verbessern. Insbesondere (i) verbessern wir den Distillationsansatz durch die Einführung einer neuen „geführten Aufwärmphase“ (guided burn-in), und (ii) evaluieren wir verschiedene Instanzsegmentierungsarchitekturen sowie Backbonenetze und Vortrainingsstrategien. Im Gegensatz zu früheren Arbeiten, die während der Aufwärmphase des Schülermodells ausschließlich überwachte Daten verwenden, nutzen wir auch die Anleitung des Lehrermodells, um unannotierte Daten in dieser Phase auszuwerten. Unser verbessertes Distillationsverfahren führt zu erheblichen Verbesserungen im Vergleich zu bisherigen Stand der Technik. Zum Beispiel verbessern wir auf dem Cityscapes-Datensatz den Mask-AP von 23,7 auf 33,9 bei Verwendung von Labels für 10 % der Bilder und auf dem COCO-Datensatz den Mask-AP von 18,3 auf 34,1 bei Verwendung von Labels für nur 1 % der Trainingsdaten.

Geführte Destillation für die semi-supervisierte Instanzsegmentierung | Neueste Forschungsarbeiten | HyperAI