無人航空機による効率的な視覚に基づく飛行目標のアクティブ追跡の学習アプローチ

自律的な飛行物体の追跡は、捜索救助から無人航空機システム(UAS)対策まで、重要な民間および防衛応用を持っています。地上からの追跡にはインフラの設置が必要で、範囲に制限があり、遠隔地や密集した都市部、茂みのある地域では実現が困難な場合があります。別の航空機、例えば追跡用無人航空機(UAV)からの視覚に基づく能動的な空中物体追跡は、これらの重要なギャップを埋めるとともに、空中協調のユースケースにも役立ちます。UAVによる視覚に基づく能動的な追跡には、以下の2つの連携問題を解決する必要があります:1) 計算効率が高く正確な(目標)物体検出と目標状態推定;2) 目標が将来の時間ステップで視野内に残り、継続的な検出に有利な位置にあることを確保するための操縦決定。 最初の問題に対する解決策として、本論文では標準的な深層学習アーキテクチャとカーネル化相関フィルタ(KCF)を組み合わせた新しい統合手法を提案します。これにより、計算効率が高く正確な物体検出を実現でき、単独の学習またはフィルタリング手法とは異なり精度を犠牲にすることなく処理できます。提案された知覚フレームワークはラボスケールのセットアップを使用して検証されました。 2番目の問題については、従来のコントローラーの線形仮定と背景変動による効果性の制限を解消するために、強化学習を使用して速度操縦の高速計算を行うニューロコントローラーを訓練する方法を提示します。この目的のために新たな状態空間、行動空間および報酬関数の定式化を開発し、AirSimを使用してシミュレーション上で訓練を行いました。訓練済みモデルは複雑な目標操縦に対してAirSimでテストされ、トラッキング時間と追跡中の平均距離(目標との間)においてベースラインとなるPID制御よりも優れた性能を示しました。