LIRE : Reconstruction neurale à grande échelle de scènes pour les systèmes de conduite autonome

La synthèse d’images photo-réalistes à vue libre constitue une tâche importante dans le domaine des multimédias. Avec le développement des systèmes avancés d’aide à la conduite (ADAS) et leur application dans les véhicules autonomes, l’expérimentation dans divers scénarios devient un défi croissant. Bien que des scènes routières photo-réalistes puissent être générées à l’aide de méthodes de traduction d’image à image, celles-ci ne parviennent pas à produire des scènes cohérentes en raison du manque d’information 3D. Dans ce travail, nous proposons une méthode de rendu neuronal à grande échelle, appelée READ (Rendering of Autonomous Driving Scenes), permettant de synthétiser des scénarios de conduite à grande échelle sur un ordinateur personnel grâce à diverses stratégies d’échantillonnage. Pour représenter efficacement les scénarios de conduite, nous introduisons un réseau de rendu ω, conçu pour apprendre des descripteurs neuronaux à partir de nuages de points épars. Notre modèle permet non seulement de générer des scènes de conduite réalistes, mais aussi de les assembler et de les modifier. Les expériences montrent que notre approche s’acquitte avec succès des scénarios de conduite à grande échelle.