Vous Ne Regardez Qu'une Seule Fois pour la Détection en Temps Réel et les Tâches Génériques Multi-Tâches

La précision élevée, le poids léger et la réactivité en temps réel sont trois exigences essentielles pour la mise en œuvre de la conduite autonome. Dans cette étude, nous intégrons A-YOLOM, un modèle multitâche adapté, en temps réel et léger, conçu pour traiter simultanément les tâches de détection d'objets, de segmentation des zones de circulation et de segmentation des lignes de voie. Plus précisément, nous développons un modèle multitâche bout à bout avec une structure de segmentation unifiée et simplifiée. Nous introduisons un paramètre apprenable qui concatène de manière adaptative les caractéristiques entre le cou (neck) et le tronc (backbone) dans les tâches de segmentation, en utilisant la même fonction de perte pour toutes les tâches de segmentation. Cela élimine la nécessité d'adaptations spécifiques et améliore les capacités de généralisation du modèle. Nous présentons également une tête de segmentation composée uniquement d'une série de couches convolutionnelles, ce qui réduit le nombre de paramètres et le temps d'inférence. Nous obtenons des résultats compétitifs sur l'ensemble de données BDD100k, notamment en termes de visualisation. Les résultats des performances montrent un mAP50 de 81,1 % pour la détection d'objets, un mIoU de 91,0 % pour la segmentation des zones de circulation et un IoU de 28,8 % pour la segmentation des lignes de voie. De plus, nous introduisons des scénarios du monde réel pour évaluer les performances du modèle dans un environnement réel, où il surpasse considérablement ses concurrents. Cela démontre que notre modèle non seulement présente des performances compétitives mais est également plus flexible et plus rapide que les modèles multitâche existants. Les codes sources et les modèles pré-entraînés sont disponibles à l'adresse suivante : https://github.com/JiayuanWang-JW/YOLOv8-multi-task