LESEN: Großflächige neuronale Szenenrendering für autonome Fahrzeuge

Die Synthese von frei bewegbaren, foto-realistischen Bildern ist eine zentrale Aufgabe im Bereich der Multimediotechnologie. Mit der Entwicklung fortschrittlicher Assistenzsysteme für Fahrer (Advanced Driver Assistance Systems, ADAS) und deren Anwendung in autonomen Fahrzeugen wird das Experimentieren mit unterschiedlichen Szenarien zunehmend herausfordernd. Obwohl photo-realistische Straßenlandschaften durch Methoden der Bild-zu-Bild-Übersetzung generiert werden können, sind diese aufgrund des Fehlens dreidimensionaler Informationen nicht in der Lage, konsistente Szenen zu erzeugen. In diesem Artikel wird ein großskaliges neuronales Rendering-Verfahren vorgestellt, das autonome Fahrzeug-Szenen (READ, Large-scale Neural Rendering for Autonomous Driving) synthetisiert und es ermöglicht, große autonome Fahrszenarien auf einer herkömmlichen PC-Plattform durch verschiedene Abtaststrategien zu generieren. Um Fahrtszenarien präzise darzustellen, führen wir ein ω-Rendering-Netzwerk ein, das neuronale Deskriptoren aus spärlichen Punktwolken lernt. Unser Modell kann nicht nur realistische Fahrszenarien synthetisieren, sondern auch diese zusammensetzen und editieren. Experimentelle Ergebnisse zeigen, dass unser Modell hervorragende Leistung in großskaligen Fahrszenarien erzielt.