Lernen, zu lenken, indem man Merkmale aus heterogenen Hilfsnetzwerken nachahmt

Die Ausbildung vieler bestehender End-to-End-Modell zur Vorhersage von Lenkwinkeln basiert stark auf Lenkwinkeln als Supervisionsignal. Ohne das Lernen aus viel reicheren Kontexten sind diese Methoden anfällig für scharfe Straßenkurven, herausfordernde Verkehrslagen, starke Schatten und extreme Lichtveränderungen. In dieser Arbeit verbessern wir die Genauigkeit und Robustheit der Vorhersagen erheblich durch die Merkmalsimitation heterogener Nebennetze, eine neue und effektive Trainingsmethode, die uns neben der Fahrtrichtung viel reichere kontextuelle Signale liefert. Insbesondere trainieren wir unser Modell zur Vorhersage von Lenkwinkeln, indem wir Wissen aus mehreren Schichten verschiedener heterogener Nebennetze extrahieren, die verwandte aber unterschiedliche Aufgaben lösen, z.B. Bildsegmentierung oder optische Flussberechnung. Im Gegensatz zum Multi-Task-Lernen benötigt unsere Methode keine teuren Annotationen verwandter Aufgaben im Zielset. Dies wird ermöglicht, indem wir moderne vorab trainierte Netze auf dem Zielset anwenden und ihre Merkmale nach Transformation in verschiedenen Schichten imitieren. Die Nebennetze werden nach dem Training verworfen, ohne die Laufzeit-Effizienz unseres Modells zu beeinträchtigen. Unser Ansatz erreicht einen neuen Stand der Technik auf den Datensätzen von Udacity und Comma.ai und übertrifft den bisherigen Bestwert um 12,8 % bzw. 52,1 %. Ermutigende Ergebnisse wurden auch auf dem Berkeley Deep Drive (BDD) Datensatz gezeigt.