要約
小型移動物体の検出は、飛行する昆虫のモニタリング、その採餌行動の研究、昆虫を用いた作物の開花および受粉状況のモニタリング、ミツバチ群の監視、ミツバチの移動経路の追跡など、多岐にわたる応用を持つ重要な研究分野である。しかし、小型物体には特徴的な形状やテクスチャの詳細が乏しいため、畳み込みニューラルネットワーク(CNN)に基づく現代的な物体検出手法を直接適用しても、著しく低い性能にとどまる。本論文では、標準的な動画カメラを搭載した無人航空機(UAV)によって記録された動画において、小型移動物体を検出する手法を提案する。提案手法の主なステップは、動画の安定化、背景の推定と差分処理、CNNを用いたフレーム分割、および分割後のフレームに対するしきい値処理である。一方、CNNの学習には大規模なラベル付きデータセットが必要となるが、動画内の小型移動物体を手動でラベル付けることは非常に困難かつ時間のかかる作業であり、現時点ではそのようなラベル付きデータセットは存在しない。この問題を回避するため、実世界の背景を有する動画シーケンスに小型のブロブ状物体を合成して生成した合成動画を用いてCNNの学習を行う手法を提案する。実際に飛行するミツバチの検出を対象とした実験結果から、古典的なコンピュータビジョン技術とCNN、および合成学習データセットを組み合わせることで、CNNを直接適用する際の課題を克服し、実世界の動画に対するテストにおいて平均F1スコア0.86を達成したことが示された。