Selbstkorrektur für die menschliche Analyse

Das Beschriften von Pixel-Level-Masken für feingranulare semantische Segmentierungsaufgaben, wie z.B. die menschliche Analyse (human parsing), bleibt eine herausfordernde Aufgabe. Die unscharfen Grenzen zwischen verschiedenen semantischen Teilen und Kategorien mit ähnlicher Erscheinung sind oft verwirrend und führen zu unerwarteten Störungen in den Ground-Truth-Masken. Um das Problem des Lernens mit beschriftungsbedingten Fehlern zu bewältigen, stellt diese Arbeit eine Reinigungsstrategie vor, die als Selbstkorrektur für die menschliche Analyse (Self-Correction for Human Parsing, SCHP) bezeichnet wird. Diese Strategie fördert schrittweise die Zuverlässigkeit der überwachten Beschriftungen sowie der gelernten Modelle. Insbesondere ausgehend von einem Modell, das mit ungenauen Annotationen initialisiert wurde, haben wir einen zyklischen Lernplan entwickelt, um durch iterative Aggregation des aktuell gelernten Modells mit dem früheren optimalen Modell in Echtzeit verlässlichere Pseudo-Masken abzuleiten. Zudem können die entsprechend korrigierten Beschriftungen wiederum die Leistungsfähigkeit des Modells weiter verbessern. Auf diese Weise werden Modelle und Beschriftungen während der Selbstkorrektur-Lernzyklen gegenseitig robuster und genauer. Dank der Überlegenheit von SCHP erzielen wir die beste Leistung auf zwei weit verbreiteten Benchmarks für die Einzelperson-Analyse, einschließlich den Datensätzen LIP und Pascal-Person-Part. Unser gesamtes System rangiert auf Platz 1 im CVPR2019 LIP Challenge. Der Quellcode ist unter https://github.com/PeikeLi/Self-Correction-Human-Parsing verfügbar.