Lernansatz zur effizienten visuellen aktiven Verfolgung eines fliegenden Ziels durch ein unbemanntes Fluggerät

Die autonome Verfolgung fliegender Luftfahrzeuge hat wichtige zivile und militärische Anwendungen, die von Such- und Rettungsoperationen bis hin zur Bekämpfung unbemannter Luftfahrzeuge (counter-UAS) reichen. Bodengebundene Verfolgung erfordert den Aufbau von Infrastruktur, kann aufgrund der Reichweite begrenzt sein und ist möglicherweise in abgelegenen Gebieten, dicht besiedelten Städten oder in Gebieten mit dichtem Bewuchs nicht durchführbar. Die visuelle aktive Verfolgung von Luftfahrzeugen durch ein anderes fliegendes Fahrzeug, zum Beispiel einen Jagdunbemannten Luftfahrzeug (UAV), verspricht diese wichtige Lücke zu schließen und gleichzeitig Anwendungsfälle für die luftgestützte Koordination zu bedienen. Die visuelle aktive Verfolgung durch einen UAV umfasst das Lösen zweier gekoppelter Probleme: 1) rechenintensiv effiziente und genaue (Ziel-)Objekterkennung sowie Schätzung des Zielzustands; und 2) Manöverentscheidungen, um sicherzustellen, dass das Ziel in den nachfolgenden Zeitschritten im Sichtfeld bleibt und günstig positioniert ist für eine fortlaufende Erkennung. Als Lösung für das erste Problem präsentiert dieser Artikel eine neuartige Integration standardisierter tiefen Lernarchitekturen mit dem Kernelisierten Korrelationsfilter (KCF), um eine rechenintensiv effiziente Objekterkennung ohne Genauigkeitsverlust zu erreichen, im Gegensatz zu alleinigen Lern- oder Filteransätzen. Das vorgeschlagene Wahrnehmungsframework wird anhand einer laboraufbereiteten Testanlage validiert. Für das zweite Problem, um die linearitätsbezogenen Annahmen und Hintergrundvariationen zu überwinden, die die Effektivität traditioneller Regler einschränken, stellen wir das Reinforcement Learning vor, um einen Neuro-Regler für die schnelle Berechnung von Geschwindigkeitsmanövern zu trainieren. Zu diesem Zweck werden neue Zustandsräume, Aktionenräume und Belohnungsformulierungen entwickelt, und das Training erfolgt in der Simulation unter Verwendung von AirSim. Das trainierte Modell wurde ebenfalls in AirSim hinsichtlich komplexer Zielmanöver getestet und erwies sich gegenüber einem Baseline-PID-Regler in Bezug auf die Verfolgungszeit und den durchschnittlichen Abstand (zum Ziel) während der Verfolgung als überlegen.