jeu de données aiMotive : un jeu de données multimodal pour une conduite autonome robuste avec une perception à longue portée

La conduite autonome constitue un domaine de recherche populaire au sein de la communauté de la vision par ordinateur. Étant donné que les véhicules autonomes sont d'une criticité élevée en matière de sécurité, assurer une robustesse adéquate est essentielle pour leur déploiement dans des environnements réels. Bien qu’un certain nombre de jeux de données multimodaux publics soient disponibles, ils se limitent principalement à deux modalités sensorielles (caméra, LiDAR), qui ne sont pas optimales en conditions météorologiques défavorables. De plus, ces jeux de données manquent d’étiquetages à longue portée, ce qui complique l’entraînement de réseaux neuronaux constituant la base d’une fonction d’assistance routière pour véhicules autonomes. Ainsi, nous introduisons un jeu de données multimodal destiné à la conduite autonome robuste avec une perception à longue portée. Ce jeu de données comprend 176 scènes, acquises à l’aide de capteurs LiDAR, caméra et radar synchronisés et calibrés, couvrant un champ de vision à 360 degrés. Les données ont été collectées sur des autoroutes, dans des zones urbaines et périurbaines, pendant la journée, la nuit et sous la pluie, et sont annotées avec des boîtes englobantes 3D munies d’identifiants cohérents au fil des trames. En outre, nous avons entraîné des modèles de base unimodaux et multimodaux pour la détection d’objets 3D. Les données sont disponibles à l’adresse suivante : \url{https://github.com/aimotive/aimotive_dataset}.