HyperAIHyperAI

Command Palette

Search for a command to run...

Lernansatz zur effizienten visuellen aktiven Verfolgung eines fliegenden Ziels durch ein unbemanntes Fluggerät

Jagadeswara PKV Pothuri Aditya Bhatt Prajit KrisshnaKumar Manaswin Oddiraju Souma Chowdhury

Zusammenfassung

Die autonome Verfolgung fliegender Luftfahrzeuge hat wichtige zivile und militärische Anwendungen, die von Such- und Rettungsoperationen bis hin zur Bekämpfung unbemannter Luftfahrzeuge (counter-UAS) reichen. Bodengebundene Verfolgung erfordert den Aufbau von Infrastruktur, kann aufgrund der Reichweite begrenzt sein und ist möglicherweise in abgelegenen Gebieten, dicht besiedelten Städten oder in Gebieten mit dichtem Bewuchs nicht durchführbar. Die visuelle aktive Verfolgung von Luftfahrzeugen durch ein anderes fliegendes Fahrzeug, zum Beispiel einen Jagdunbemannten Luftfahrzeug (UAV), verspricht diese wichtige Lücke zu schließen und gleichzeitig Anwendungsfälle für die luftgestützte Koordination zu bedienen. Die visuelle aktive Verfolgung durch einen UAV umfasst das Lösen zweier gekoppelter Probleme: 1) rechenintensiv effiziente und genaue (Ziel-)Objekterkennung sowie Schätzung des Zielzustands; und 2) Manöverentscheidungen, um sicherzustellen, dass das Ziel in den nachfolgenden Zeitschritten im Sichtfeld bleibt und günstig positioniert ist für eine fortlaufende Erkennung. Als Lösung für das erste Problem präsentiert dieser Artikel eine neuartige Integration standardisierter tiefen Lernarchitekturen mit dem Kernelisierten Korrelationsfilter (KCF), um eine rechenintensiv effiziente Objekterkennung ohne Genauigkeitsverlust zu erreichen, im Gegensatz zu alleinigen Lern- oder Filteransätzen. Das vorgeschlagene Wahrnehmungsframework wird anhand einer laboraufbereiteten Testanlage validiert. Für das zweite Problem, um die linearitätsbezogenen Annahmen und Hintergrundvariationen zu überwinden, die die Effektivität traditioneller Regler einschränken, stellen wir das Reinforcement Learning vor, um einen Neuro-Regler für die schnelle Berechnung von Geschwindigkeitsmanövern zu trainieren. Zu diesem Zweck werden neue Zustandsräume, Aktionenräume und Belohnungsformulierungen entwickelt, und das Training erfolgt in der Simulation unter Verwendung von AirSim. Das trainierte Modell wurde ebenfalls in AirSim hinsichtlich komplexer Zielmanöver getestet und erwies sich gegenüber einem Baseline-PID-Regler in Bezug auf die Verfolgungszeit und den durchschnittlichen Abstand (zum Ziel) während der Verfolgung als überlegen.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Lernansatz zur effizienten visuellen aktiven Verfolgung eines fliegenden Ziels durch ein unbemanntes Fluggerät | Paper | HyperAI