
少数回サンプル分割(few-shot segmentation)は、少数のアノテーション付きサンプルを用いて未観測のオブジェクトクラスを効果的にセグメンテーションできる点から、近年注目を集めている。既存の多くは、アノテーション付きのサポート画像をマスク付きグローバル平均プーリング(Masked Global Average Pooling: GAP)により特徴ベクトルに符号化し、クエリ画像のセグメンテーションを支援する。しかし、このパイプラインは平均化操作のため、識別に重要な情報の一部が必然的に失われてしまうという課題を抱えている。本研究では、失われた重要な情報を復元するシンプルかつ効果的な自己指導学習(self-guided learning)手法を提案する。具体的には、アノテーション付きサポート画像に対して初期予測を生成し、その予測結果に基づいて前景領域の被覆部分と非被覆部分をそれぞれマスク付きGAPにより主サポートベクトルと補助サポートベクトルに符号化する。この主サポートベクトルと補助サポートベクトルを統合することで、クエリ画像におけるセグメンテーション性能が向上する。1ショット分割用の自己指導モジュールの知見をもとに、複数ショット分割に適したクロス指導モジュール(cross-guided module)を提案する。このモジュールでは、複数のアノテーション付きサンプルから得られる予測結果を、高品質なサポートベクトルがより大きな寄与をすることで最終マスクを融合する。このアプローチは再訓練を必要とせず、推論段階での最終予測を改善できる。広範な実験により、本手法がPASCAL-5iおよびCOCO-20iデータセットの両方において、最新の最先端性能(state-of-the-art)を達成することが確認された。