Command Palette
Search for a command to run...
Vorhersage der Geländeszenenstruktur aus Luftbildern
Vorhersage der Geländeszenenstruktur aus Luftbildern
Zhai Menghua Bessinger Zachary Workman Scott Jacobs Nathan
Zusammenfassung
Wir stellen eine neue Strategie zur Lernung der Extraktion semantisch bedeutungsvoller Merkmale aus Luftbildern vor. Anstelle der manuellen Beschriftung von Luftbildern schlagen wir vor, (verzerrte) semantische Merkmale automatisch aus entsprechenden Bodenbildern zu prognostizieren. Unser Netzwerkarchitektur nimmt ein Luftbild als Eingabe, extrahiert mithilfe eines konvolutionellen neuronalen Netzes Merkmale und wendet anschließend eine adaptive Transformation an, um diese Merkmale in die Perspektive des Bodens zu überführen. Wir nutzen einen end-to-end-Lernansatz, um die Differenz zwischen der direkt aus dem Bodenbild abgeleiteten semantischen Segmentierung und der ausschließlich auf Basis des Luftbilds vorhergesagten semantischen Segmentierung zu minimieren. Wir zeigen, dass ein Modell, das mit dieser Strategie ohne zusätzliche Trainingsphase gelernt wurde, bereits in der Lage ist, Luftbilder grob semantisch zu beschriften. Darüber hinaus demonstrieren wir, dass sich durch Feinabstimmung dieses Modells eine genauere semantische Segmentierung erzielen lässt als bei zwei Baseline-Initialisierungsstrategien. Wir nutzen unser Netzwerk, um die Aufgabe der Schätzung der Geolokalisierung und Geoorientierung eines Bodenbilds zu lösen. Schließlich zeigen wir, wie aus einem Luftbild extrahierte Merkmale genutzt werden können, um ein plausibles Panorama aus Bodenperspektive zu „halluzinieren“.