DeepDualMapper: Ein gatterter Fusionsnetzwerk zur automatischen Kartenerstellung mithilfe von Luftbildern und Trajektorien

Die automatische Kartenerstellung ist von großer Bedeutung für die städtische Rechentechnik und ortsbasierte Dienstleistungen. Luftbild- und GPS-Trajektoriedaten stellen zwei verschiedene Datensourcen dar, die zur Generierung von Karten genutzt werden können, obwohl sie unterschiedliche Informationsarten enthalten. Die meisten bisherigen Ansätze zur Datenfusion zwischen Luftbildern und Daten aus Hilfssensoren nutzen die Informationen beider Modalitäten nicht vollständig und leiden daher unter Informationsverlust. Wir stellen ein tiefes konvolutionelles neuronales Netzwerk namens DeepDualMapper vor, das Luftbilder und Trajektoriendaten auf eine nahtlosere Weise fusioniert, um digitale Karten zu extrahieren. Wir entwerfen ein gatemoduliertes Fusionsmodul, das die Informationsflüsse beider Modalitäten gezielt und komplementaritätsbewusst steuert. Zudem schlagen wir einen neuartigen dicht überwachten Nachbearbeitungsdecoder vor, der die Vorhersage auf einer grob-zu-fein-Strategie generiert. Unsere umfassenden Experimente zeigen, dass DeepDualMapper die Informationen aus Bildern und Trajektorien deutlich effektiver als bestehende Ansätze fusionieren kann und Karten mit höherer Genauigkeit erzeugen kann.