DeFusionNET: Fokusschärfenachweis durch rekurrentes Fusions- und Verfeinerungsprozess mehrskaliger tiefer Merkmale

Die Detektion von Unschärfe durch Fokusabweichung zielt darauf ab, unscharfe Bereiche innerhalb eines Bildes zu identifizieren. Obwohl diese Aufgabe aufgrund ihrer vielfältigen Anwendungen zunehmend Aufmerksamkeit erlangt, steht sie dennoch vor mehreren Herausforderungen, wie etwa der Störung durch Hintergrundkomplexität, der Empfindlichkeit gegenüber Skalierung und dem Fehlen präziser Randinformationen in Bereichen mit Fokusabweichung. Um diese Probleme zu bewältigen, schlagen wir ein tiefes neuronales Netzwerk vor, das mehrskalige tiefe Merkmale rekursiv fusioniert und verfeinert (DeFusionNet) zur Detektion von Fokusabweichungsunschärfe. Zunächst nutzen wir ein vollständig konvolutionelles Netzwerk, um mehrskalige tiefe Merkmale zu extrahieren. Merkmale aus tiefen Schichten sind in der Lage, reichhaltige niedrigstufige Merkmale zu erfassen, die zur Erhaltung feinster Details beitragen, während Merkmale aus oberen Schichten semantische Informationen repräsentieren, um die Lage unscharfer Bereiche zu lokalisieren. Diese Merkmale aus unterschiedlichen Schichten werden jeweils als flache Merkmale und semantische Merkmale gefasst. Anschließend werden die gefassten flachen Merkmale in die oberen Schichten zurückgeleitet, um die feinen Details der detektierten unscharfen Bereiche zu verfeinern, während die gefassten semantischen Merkmale in die unteren Schichten zurückgeführt werden, um eine genauere Lokalisierung der unscharfen Bereiche zu unterstützen. Die Merkmalsfusion und -verfeinerung erfolgt rekursiv. Zudem fassen wir abschließend die Ausgaben jeder Schicht im letzten rekursiven Schritt zusammen, um die endgültige Karte der Fokusabweichungsunschärfe zu erzeugen, wobei die Skalensensitivität der Unscharfegradmessung berücksichtigt wird. Experimente auf zwei gängigen Benchmark-Datensätzen für die Detektion von Fokusabweichungsunschärfe zeigen die Überlegenheit von DeFusionNet gegenüber zehn anderen Ansätzen. Der Quellcode und zusätzliche Ergebnisse sind unter http://tangchang.net verfügbar.