HyperAI
il y a 15 jours

Approche d'apprentissage pour un suivi actif et efficace d'une cible volante par un véhicule aérien non piloté

Jagadeswara PKV Pothuri, Aditya Bhatt, Prajit KrisshnaKumar, Manaswin Oddiraju, Souma Chowdhury
Approche d'apprentissage pour un suivi actif et efficace d'une cible volante par un véhicule aérien non piloté
Résumé

Le suivi autonome d'objets aériens volants présente des applications civiles et militaires importantes, allant de la recherche et du sauvetage à la lutte contre les systèmes aériens non pilotés (systèmes anti-UAS). Le suivi au sol nécessite l'installation d'infrastructures, peut être limité en portée et ne peut pas toujours être réalisé dans des zones éloignées, des villes densément peuplées ou des zones à végétation dense. Le suivi actif basé sur la vision d'objets aériens depuis un autre véhicule aérien, par exemple un drone poursuivant (UAV), promet de combler cette lacune importante tout en servant aux cas d'utilisation de coordination aérienne. Le suivi actif basé sur la vision par un UAV implique la résolution de deux problèmes couplés : 1) une détection d'objets (cible) efficace en termes de calcul et précise, ainsi qu'une estimation de l'état cible ; et 2) des décisions de manœuvres pour garantir que la cible reste dans le champ de vision lors des étapes futures et est favorablement positionnée pour une détection continue. Pour résoudre le premier problème, cet article présente une intégration novatrice d'architectures basées sur l'apprentissage profond standard avec le Filtre de Corrélation Noyau (KCF) afin d'atteindre une détection d'objets efficace en termes de calcul sans compromettre la précision, contrairement aux approches purement basées sur l'apprentissage ou le filtrage. Le cadre perceptif proposé est validé à l'aide d'un dispositif à l'échelle du laboratoire. Pour le deuxième problème, afin d'éliminer les hypothèses linéaires et les variations du fond qui limitent l'efficacité des contrôleurs traditionnels, nous présentons l'utilisation de l'apprentissage par renforcement pour former un neuro-contrôleur permettant un calcul rapide des manœuvres de vitesse. De nouvelles formulations d'espace d'état, d'espace d'action et de récompense sont développées à cette fin, et l'entraînement est effectué en simulation à l'aide d'AirSim. Le modèle entraîné est également testé dans AirSim en ce qui concerne les manœuvres complexes de la cible, et il est constaté qu'il surpasse un contrôle PID de base en termes de temps de suivi et de distance moyenne maintenue (par rapport à la cible) pendant le suivi.