Data Upcycling Knowledge Distillation für Image Super-Resolution

Wissensdistillation (Knowledge Distillation, KD) komprimiert tiefe neuronale Netze, indem sie aufgabenrelevante Kenntnisse von umfangreichen, vortrainierten Lehrmodellen (Teacher-Modellen) auf kompakte Schülermodelle (Student-Modelle) überträgt. Allerdings ignorieren derzeitige KD-Verfahren für Super-Resolution-(SR-)Netze die Eigenschaft der SR-Aufgabe, dass die Ausgaben des Lehrmodells Rauschapproximationen der wahren Verteilung hochwertiger Bilder (Ground Truth, GT) darstellen. Diese Rauschkomponente verschleiert das Wissen des Lehrmodells und führt zu begrenzten KD-Effekten. Um das Lehrmodell über die GT-Obergrenze hinaus nutzbar zu machen, präsentieren wir die Data Upcycling Knowledge Distillation (DUKD), die das Wissen des Lehrmodells über aufbereitete, in-domain-Daten überträgt, die aus den Trainingsdaten abgeleitet wurden. Zudem führen wir eine Label-Konsistenz-Regularisierung in die KD für SR ein, indem wir paarweise invertierbare Datenaugmentierungen verwenden, um die Leistungsfähigkeit und Robustheit des Schülermodells zu verbessern. Umfassende Experimente zeigen, dass die DUKD-Methode mehrere bestehende Ansätze auf verschiedenen SR-Aufgaben erheblich übertrifft.