
要約
少ショット学習において、機械学習システムは特定のタスクに関連する少量のラベル付きサンプルから学習し、そのタスクの新しいサンプルに一般化できるようにします。このようなタスクではラベル付きサンプルが限られているため、利用可能なすべての情報を活用したいと考えています。通常、モデルは小さな訓練セット(サポートセット)からタスク固有の情報を学習し、未ラベルの検証セット(ターゲットセット)に対して予測を行います。しかし、このターゲットセットにはサポートセットで利用されない追加のタスク固有の情報が含まれています。既存の少ショット学習手法ではこれらの情報を活用することができません。推論時にターゲットセットには未ラベルの入力データのみが含まれているため、判別的学習を用いることはできません。本論文では、自己批評と適応(Self-Critique and Adapt: SCA)というフレームワークを提案します。SCAは、ニューラルネットワークとしてパラメータ化されたラベルフリー損失関数を学習する方法です。ベースモデルは既存の手法(例:クロスエントロピー損失と組み合わせた確率的勾配降下法)を使用してサポートセットから学習し、その後、学習した損失関数を用いて到来するターゲットタスクに対して更新されます。このラベルフリー損失関数自体も最適化され、学習したモデルがより高い汎化性能を達成できるように設計されています。実験結果は、SCAがサポートセットのみで適応する基準モデルよりも大幅に低い誤り率を示すことを示しており、Mini-ImageNetおよびCaltech-UCSD Birds 200において最先端のベンチマーク性能を達成しています。