Command Palette
Search for a command to run...
Störungsbasierte und strenge Mittelwerte Lehrer für semigedämpfte semantische Segmentierung
Störungsbasierte und strenge Mittelwerte Lehrer für semigedämpfte semantische Segmentierung
Yuyuan Liu Yu Tian Yuanhong Chen Fengbei Liu Vasileios Belagiannis Gustavo Carneiro
Zusammenfassung
Die Konsistenzlernmethode, die Eingabebilder, Merkmale oder Netzwerke durch Störungen beeinflusst, hat beachtliche Ergebnisse bei der halbüberwachten semantischen Segmentierung erzielt. Allerdings kann dieser Ansatz erheblich durch ungenaue Vorhersagen von unbeschrifteten Trainingsbildern beeinträchtigt werden. Diese ungenauen Vorhersagen führen zu zwei negativen Folgen: Erstens neigt das Training auf der Grundlage der „strengen“ Kreuzentropie-(CE-)Verlustfunktion dazu, Vorhersagefehler zu überfitten, was zu einer Bestätigungsverzerrung führt; zweitens werden die Störungen, die auf diesen ungenauen Vorhersagen angewendet werden, potenziell fehlerhafte Vorhersagen als Lernsignale nutzen, was die Konsistenzlernleistung verschlechtert. In diesem Paper lösen wir das Problem der Vorhersagegenauigkeit bei Konsistenzlernmethoden durch neuartige Erweiterungen des Mean-Teacher-(MT)-Modells. Dazu gehören ein neuer Hilfslehrer sowie die Ersetzung des ursprünglichen Mittelwertquadrat-Fehlers (MSE) durch eine strengere, vertrauensgewichtete Kreuzentropie-(Conf-CE-)Verlustfunktion. Die präzise Vorhersage dieses Modells ermöglicht es uns, eine anspruchsvolle Kombination aus Netzwerk-, Eingabedaten- und Merkmalsstörungen einzusetzen, um die Generalisierungsfähigkeit des Konsistenzlernens zu verbessern, wobei die Merkmalsstörungen eine neue adversarische Störung beinhalten. Ergebnisse auf öffentlichen Benchmarks zeigen, dass unser Ansatz gegenüber den vorherigen State-of-the-Art-Methoden erhebliche Verbesserungen erzielt. Unser Code ist unter https://github.com/yyliu01/PS-MT verfügbar.