
要約
これまでの多くの少ショット学習アルゴリズムは、大量のラベル付き基本クラスを必要とする偽の少ショットタスクを訓練サンプルとして使用したメタトレーニングに基づいています。このトレーニング済みモデルは、タスクの種類に制限されます。本論文では、これらの欠点を補うために、非監督少ショット学習の新しいパラダイムを提案します。我々は、2つのフェーズで少ショットタスクを解決します:まず、コントラスティブ自己教師なし学習を通じて転送可能な特徴抽出器をメタトレーニングし、次にグラフ集約、自己蒸留(self-distillation)、および多様体拡張(manifold augmentation)を使用して分類器を訓練します。メタトレーニングが完了すると、タスク依存型の分類器訓練によって任意のタイプのタスクでモデルを使用できます。我々の方法は、標準的な少ショット視覚分類データセット上で確立された様々な少ショットタスクにおいて最先端の性能を達成しており、既存の非監督少ショット学習方法と比較して8〜28%の向上が見られます。