
要約
共通注目度検出(Co-SOD)は、関連する画像群から共通の注目度の高い前景をセグメンテーションすることを目指しています。本論文では、人間の行動に着想を得て、勾配誘導型共通注目度検出(Gradient-Induced Co-saliency Detection: GICD)手法を提案します。まず、埋め込み空間において画像群の共通表現を抽象化します。次に、単一の画像と共通表現を比較し、フィードバック勾配情報を用いて差別的な共通注目度特徴への注意をより強く誘導します。さらに、Co-SODの訓練データが不足しているため、ジグソートレーニング戦略を設計しました。これにより、追加のピクセルレベルのアノテーションなしで一般的な注目度データセット上でCo-SODネットワークを訓練することが可能になります。複数の前景の中から共通注目度オブジェクトを見つけるCo-SOD手法の性能評価のために、各画像に少なくとも1つの不要な前景が含まれる困難なCoCAデータセットを構築しました。実験結果は、我々のGICDが最先端の性能を達成していることを示しています。我々のコードとデータセットは https://mmcheng.net/gicd/ で公開されています。