Command Palette
Search for a command to run...
強弱分布アライメントによる適応的物体検出
強弱分布アライメントによる適応的物体検出
Kuniaki Saito; Yoshitaka Ushiku; Tatsuya Harada; Kate Saenko
概要
我々は、ラベルが豊富なドメインからラベルが少ないドメインへの物体検出器の非監督適応手法を提案します。この手法は、検出に伴うアノテーションコストを大幅に削減することができます。最近では、ソース画像とターゲット画像の分布を敵対的損失を使用して合わせる手法が、物体分類器の適応において効果的であることが証明されています。しかし、物体検出の場合には、ソース画像とターゲット画像の全体的な分布をグローバルレベルで完全に一致させることが失敗する可能性があります。これは、ドメイン間に異なるシーン構成や物体の組み合わせがあるためです。一方で、テクスチャや色などの局所特徴量を強く一致させることは理にかなっています。なぜなら、それはカテゴリレベルの意味論を変えないからです。これにより、我々は強局所一致と弱グローバル一致に基づく新しい検出器適応手法を提案します。我々の主要な貢献は弱い一致モデルであり、敵対的一致損失をグローバルに類似した画像に集中させ、グローバルに非類似な画像の一致には重きを置かないようにしています。さらに、強ドメイン一致モデルは特徴マップの局所受容器野のみを見ることを設計しています。我々は4つのデータセット(大規模および小規模のドメインシフトが含まれる)上で実験的に本手法の有効性を確認しました。コードは以下のURLから入手可能です: \url{https://github.com/VisionLearningGroup/DA_Detection}