Adaptation de domaine pour la détection de véhicules à partir de données de nuage de points LiDAR en vue d'oiseau

Les données de nuages de points provenant des capteurs LiDAR 3D sont l'une des modalités sensorielles les plus cruciales pour des applications variées nécessitant une sécurité maximale, telles que les véhicules autonomes. Étant donné que l'annotation des données de nuages de points est un processus coûteux et chronophage, l'utilisation récente d'environnements simulés et de capteurs LiDAR 3D pour cette tâche commence à gagner en popularité. Avec des capteurs et des environnements simulés, le processus d'obtention de données synthétiques annotées de nuages de points est devenu beaucoup plus simple. Cependant, les données synthétiques générées manquent encore des artefacts généralement présents dans les données de nuages de points provenant des capteurs LiDAR 3D réels. Par conséquent, les performances des modèles entraînés sur ces données pour les tâches de perception se dégradent lorsqu'ils sont testés sur des données réelles de nuages de points en raison du décalage entre les environnements simulés et réels. Ainsi, dans ce travail, nous proposons un cadre d'adaptation de domaine visant à combler cet écart entre les données synthétiques et réelles de nuages de points. Notre cadre proposé repose sur l'architecture des réseaux adversaires génératifs profonds cycliquement cohérents (CycleGAN). Nous avons évalué les performances de notre cadre proposé sur la tâche de détection de véhicules à partir d'images BEV (bird's eye view) issues de capteurs LiDAR 3D réels. Le cadre a montré des résultats compétitifs avec une amélioration supérieure à 7 % du score moyen de précision par rapport aux autres approches baselines lorsqu'il a été testé sur des images BEV réelles de nuages de points.