
要約
本稿では、少数回サンプル学習(few-shot learning)タスク向けに、トランスダクティブなラプラシアン正則化推論手法を提案する。ベースクラスから学習された任意の特徴埋め込みを入力として、以下の2つの項を含む二次バイナリ割当関数を最小化する。① クエリサンプルを最も近いクラスプロトタイプに割り当てる単項項、② 近接するクエリサンプル同士が一貫したラベル割当を持つよう促すペアワイズラプラシアン項。本手法におけるトランスダクティブ推論はベースモデルの再学習を必要とせず、サポートセットからの監督制約のもとでクエリセットに対するグラフクラスタリングと捉えることができる。本手法の関数の緩和形に対する計算効率の高い最適化器を導出し、各クエリサンプルに対して独立かつ並列な更新が可能でありながら収束性を保証する。ベースクラスにおけるシンプルな交差エントロピー学習に加え、複雑なメタラーニング戦略を用いずに、5つの少数回学習ベンチマークにおいて包括的な実験を実施した。実験の結果、異なるモデル、設定、データセットにおいて、本手法であるLaplacianShotは、最先端の手法を著しく上回る性能を一貫して達成した。さらに、本トランスダクティブ推論は非常に高速であり、インダクティブ推論と同等の計算時間で実行可能であり、大規模な少数回学習タスクへの適用も可能である。