18日前

CFC-Net:リモートセンシング画像における任意方向オブジェクト検出のためのクリティカル特徴捕捉ネットワーク

Qi Ming, Lingjuan Miao, Zhiqiang Zhou, Yunpeng Dong
CFC-Net:リモートセンシング画像における任意方向オブジェクト検出のためのクリティカル特徴捕捉ネットワーク
要約

光学リモートセンシング画像における物体検出は、重要な課題でありながらも高い技術的難易度を有するタスクである。近年、畳み込みニューラルネットワーク(CNN)に基づく手法が著しい進展を遂げている。しかし、物体のスケールやアスペクト比、方向の多様性が極めて大きいため、検出性能のさらなる向上は困難である。本論文では、物体検出における判別的特徴(discriminative features)の役割を検討し、その上で、特徴表現の強化、事前定義されたアノテーション(anchors)の精緻化、ラベル割り当ての最適化の3つの観点から検出精度を向上させるための「Critical Feature Capturing Network(CFC-Net)」を提案する。具体的には、まず分類と回帰の特徴を分離し、その後、極化注意機構(Polarization Attention Module: PAM)を用いてそれぞれのタスクに適した堅牢な臨界特徴(critical features)を構築する。得られた判別的回帰特徴を活用して、回転アノテーション精製モジュール(Rotation Anchor Refinement Module: R-ARM)が、事前に設定された水平アノテーションに対して局所化の精緻化を行い、優れた回転アノテーションを生成する。さらに、臨界特徴を効果的に捉える能力に基づき、高品質なアノテーションを動的に選択する「Dynamic Anchor Learning(DAL)」戦略を導入する。本研究で提案するフレームワークは、リモートセンシング画像中の物体に対してより強力な意味的表現を生成し、高性能かつリアルタイムな物体検出を実現する。HRSC2016、DOTA、UCAS-AODの3つのリモートセンシングデータセットにおける実験結果から、多数の最先端手法と比較して、本手法が優れた検出性能を達成することが示された。コードおよびモデルは、https://github.com/ming71/CFC-Net にて公開されている。