
要約
少数回学習では、ラベル付きデータが極めて少ない状況下で新たなクラスを認識する必要がある。従来の研究において、プロトタイプネットワークは有用な手法として用いられているが、限られたデータのサイズ分布に偏った訓練を行う場合、プロトタイプが偏りがちになる傾向がある。本稿では、このプロセスに影響を与える2つの主要な要因、すなわちクラス内バイアスとクラス間バイアスを特定した。その後、推論設定(トランスダクティブ設定)におけるプロトタイプ補正を目的とした、シンプルかつ効果的な手法を提案する。本手法は、クラス内バイアスを軽減するためにラベル伝搬(label propagation)を、クラス間バイアスを軽減するために特徴量シフト(feature shifting)を用いる。さらに、理論的解析を通じて、本手法の妥当性および性能の下限を導出している。提案手法の有効性は、3つの少数回学習ベンチマーク上で確認された。特に、miniImageNetでは1ショットで70.31%、5ショットで81.89%の精度を達成し、tieredImageNetでは1ショットで78.74%、5ショットで86.92%の精度を実現し、いずれのデータセットでも最先端の性能を達成した。