Entfernung von Wolken in Sentinel-2-Bildern mittels eines tiefen residualen neuronalen Netzwerks und Datenfusion aus SAR und optischen Daten
Optische Fernerkundungsbilder stehen im Zentrum vieler Aktivitäten im Bereich der Erdbeobachtung. Die regelmäßige, konsistente und global abgedeckte Natur der Satellitendaten wird in zahlreichen Anwendungen genutzt, beispielsweise bei der Überwachung von Ackerflächen, der Bewertung des Klimawandels, der Klassifikation von Landbedeckung und Landnutzung sowie bei der Beurteilung von Naturkatastrophen. Ein zentrales Problem, das die zeitliche und räumliche Verfügbarkeit von Oberflächenbeobachtungen erheblich beeinträchtigt, ist jedoch die Bewölkung. Die Entfernung von Wolken aus optischen Bildern ist bereits seit Jahrzehnten Gegenstand zahlreicher Forschungsarbeiten. Mit dem Eintritt der Big-Data-Ära in der Satellitenfernerkundung eröffnen sich nun neue Möglichkeiten zur Lösung dieses Problems durch leistungsstarke, datengetriebene Methoden des tiefen Lernens.In diesem Beitrag wird eine tiefe Residual-Neuronale-Netzwerk-Architektur entwickelt, um Wolken aus multispektralen Sentinel-2-Bildern zu entfernen. Dabei wird die Fusion von SAR- und optischen Daten genutzt, um die synergetischen Eigenschaften der beiden Bildgebungssysteme zu nutzen, um die Bildrekonstruktion zu leiten. Zudem wird eine neuartige, wolkenanpassungsfähige Verlustfunktion vorgeschlagen, um die Erhaltung der ursprünglichen Informationen zu maximieren. Das Netzwerk wird an einem global abgegriffenen Datensatz trainiert und getestet, der echte bewölkte und wolkenfreie Bilder enthält. Die vorgeschlagene Architektur ermöglicht es, selbst optisch dichte Wolken zu entfernen, indem eine optische Repräsentation der zugrundeliegenden Landoberflächenstruktur rekonstruiert wird.