HyperAIHyperAI
vor 12 Tagen

Distill-DBDGAN: Wissensdistillation und adversarische Lernframework zur Unschärfeaufklärung durch Fokusverschiebung

{Rajiv Ranjan Sahay, Moushumi Medhi, Sankaraganesh Jonna}
Abstract

Die Detektion von Unschärfe durch Fokusabweichung (Defocus Blur Detection, DBD) zielt darauf ab, die unscharfen Bereiche aus einer gegebenen Bildregion zu segmentieren, die durch Fokusabweichung beeinflusst sind. Dies stellt einen entscheidenden Vorverarbeitungsschritt für zahlreiche Aufgaben im Bereich des maschinellen Sehens dar. Mit der zunehmenden Verbreitung kleiner mobiler Geräte besteht ein Bedarf an einer rechnerisch effizienten Methode zur präzisen Erkennung von Fokusabweichung. Wir stellen eine effiziente Methode zur Detektion von Fokusabweichung vor, die die Wahrscheinlichkeit für jedes Pixel, fokussiert oder unscharf zu sein, auf ressourcenbeschränkten Geräten schätzt. Trotz der bemerkenswerten Fortschritte, die durch jüngste tiefen Lernansätze erzielt wurden, bleiben mehrere Herausforderungen bestehen, darunter Hintergrundstörungen, Skalensensitivität, die Ununterscheidbarkeit von fokussierten Regionen mit geringer Kontrastdifferenz gegenüber unscharfen Bereichen sowie insbesondere hohe Rechenkosten und hoher Speicherbedarf. Um die ersten drei Herausforderungen zu bewältigen, entwickeln wir ein neuartiges tiefes Netzwerk, das effizient eine Unschärkarte aus dem eingegebenen unscharfen Bild ableitet. Insbesondere integrieren wir mehrskalige Merkmale im tiefen Netzwerk, um Skalenambiguitäten zu lösen, und modellieren gleichzeitig nichtlokale strukturelle Korrelationen in den hochwertigen Unschärke-Merkmale. Um die letzten beiden Probleme zu adressieren, formulieren wir unseren DBD-Algorithmus schließlich so, dass er Wissensübertragung (Knowledge Distillation) durchführt, indem Informationen von einem größeren Lehrernetzwerk auf ein kompaktes Schüler-Netzwerk übertragen werden. Alle Netzwerke werden end-to-end adversarisch trainiert, um höhere Ordnungskonsistenzen zwischen der Ausgabe und der Zielverteilung zu gewährleisten. Experimentelle Ergebnisse belegen die state-of-the-art-Leistung des größeren Lehrernetzwerks, während unser vorgeschlagenes leichtgewichtiges DBD-Modell die Ausgabe des Lehrnetzwerks nachahmt, ohne signifikanten Genauigkeitsverlust zu erleiden. Der Quellcode, vortrainierte Modellgewichte sowie die Ergebnisse werden öffentlich zugänglich gemacht.

Distill-DBDGAN: Wissensdistillation und adversarische Lernframework zur Unschärfeaufklärung durch Fokusverschiebung | Neueste Forschungsarbeiten | HyperAI