
要約
少ショットオブジェクトカウントは、与えられたサンプル画像と同じクラスに属するクエリ画像内のオブジェクト数を数えることを目指しています。既存の手法では、クエリ画像とサンプル画像の2次元空間領域における類似性を計算し、回帰分析によってカウント数を求めています。しかし、これらの手法はサンプル画像の類似性の空間分布に関する豊富な情報を無視しており、マッチング精度に大きな影響を与えています。この問題に対処するために、我々は少ショットオブジェクトカウントのために空間類似度分布(Spatial Similarity Distribution: SSD)を学習するネットワークを提案します。このネットワークはサンプル特徴量の空間構造を保ちつつ、クエリ特徴量とサンプル特徴量との間で4次元類似度ピラミッドを点対点で計算し、4次元類似度空間内の各ポイントに対する完全な分布情報を捉えます。また、我々は効率的な中心ピボット4次元畳み込みを類似度ピラミッドに適用して異なる類似度分布を異なる予測密度値にマッピングし、正確なカウントを得るための類似度学習モジュール(Similarity Learning Module: SLM)も提案します。さらに、クエリ特徴量とサンプル特徴量の相互強化を行う特徴クロスエンハンスメント(Feature Cross Enhancement: FCE)モジュールも導入することで、特徴量マッチングの精度向上にも寄与します。我々のアプローチはFSC-147やCARPKなどの複数のデータセットにおいて最先端の手法を上回っています。コードはhttps://github.com/CBalance/SSD で公開されています。