Ein Einheitlicher Ansatz für Mehrskalige Tiefen- und Handgefertigte Merkmale zur Defokusschätzung

In dieser Arbeit stellen wir robuste und synergetische manuell gestaltete Merkmale sowie ein einfaches, aber effizientes tiefes Merkmal aus einer Faltungsneuronalen Netzwerkarchitektur (Convolutional Neural Network, CNN) für die Defokusschätzung vor. Das Papier analysiert systematisch die Effektivität verschiedener Merkmale und zeigt, wie jedes Merkmal die Schwächen anderer Merkmale kompensieren kann, wenn sie verkettet werden. Für eine vollständige Defokus-Abbildungsschätzung extrahieren wir Bildausschnitte (Patches) spars auf starken Kanten, wobei wir diese anschließend für die Extraktion von tiefen und manuell gestalteten Merkmalen verwenden. Um den Grad der Abhängigkeit von Patch-Skalen zu reduzieren, schlagen wir auch eine mehrskalige Patch-Extraktionsstrategie vor. Eine dünn besetzte Defokus-Abbildung wird unter Verwendung eines neuronalen Netzklassifikators und anschließend durch einen Wahrscheinlichkeits-bilateralen Filter generiert. Die endgültige Defokus-Abbildung wird aus der dünn besetzten Defokus-Abbildung unter Anleitung einer kantenerhaltenden gefilterten Eingabebild erhalten. Experimentelle Ergebnisse zeigen, dass unser Algorithmus in Bezug auf Defokusschätzung den aktuellen Stand der Technik übertrifft. Unsere Arbeit kann für Anwendungen wie Segmentierung, Vergrößerung von Unschärfe, Generierung von fokusgesamten Bildern und 3D-Schätzung verwendet werden.