Suivi multi-objets multi-modale robuste

La perception multi-capteurs est essentielle pour garantir la fiabilité et la précision dans les systèmes de conduite autonome, tandis que le suivi multi-objets (MOT) améliore ces performances en suivant les mouvements séquentiels des objets dynamiques. La plupart des approches actuelles de suivi multi-objets multi-capteurs souffrent soit d’une fiabilité insuffisante, en s’appuyant étroitement sur une seule source d’entrée (par exemple, la caméra centrale), soit d’une précision insatisfaisante, en fusionnant les résultats provenant de plusieurs capteurs au post-traitement sans exploiter pleinement les informations intrinsèques. Dans cette étude, nous proposons un cadre générique de suivi multi-objets multi-modalités indépendant du capteur (mmMOT), dans lequel chaque modalité (c’est-à-dire chaque capteur) peut assurer sa fonction de manière autonome afin de préserver la fiabilité, tout en améliorant sa précision grâce à un nouveau module de fusion multi-modalités. Notre mmMOT peut être entraîné de manière end-to-end, permettant une optimisation conjointe du extracteur de caractéristiques de base de chaque modalité et d’un estimateur d’adjacence pour la correspondance entre modalités. En outre, mmMOT réalise la première tentative d’intégration de représentations profondes des nuages de points dans le processus d’association de données du suivi multi-objets. Nous menons des expériences étendues pour évaluer l’efficacité du cadre proposé sur le défi KITTI, où nous obtenons des performances de pointe. Le code et les modèles sont disponibles à l’adresse suivante : https://github.com/ZwwWayne/mmMOT.