
教師なし少サンプル学習(unsupervised few-shot learning)は、未ラベルデータセットから帰納的バイアス(inductive bias)を学習し、新たな少サンプルタスクを解決することを目的としている。既存の教師なし少サンプル学習モデルおよび対照学習(contrastive learning)モデルは、統一されたパラダイムに従っている。そこで、このパラダイム下で実証的研究を実施した結果、ペアワイズ対照(pairwise contrast)、メタ損失(meta losses)、および大規模バッチサイズが重要な設計要因であることが明らかになった。この知見をもとに、プロトタイプ損失(prototypical loss)とペアワイズ対照を統合したCPN(Contrastive Prototypical Network)モデルを提案する。本モデルは、やや大きなバッチサイズで動作しつつ、同パラダイムに属する既存モデルを上回る性能を達成している。さらに、CPNにおけるワンホット予測ターゲットは、サンプル固有の情報を学習する傾向を引き起こす可能性がある。この問題に対処するため、仮想クラス間の意味的関係に基づき、過信した予測に対して適切なペナルティを課す「ワッサーシュタイン信頼ペナルティ(Wasserstein Confidence Penalty)」を提案する。本研究の完全なモデル、CPNWCP(Contrastive Prototypical Network with Wasserstein Confidence Penalty)は、教師なし設定下でminiImageNetおよびtieredImageNetの両データセットにおいて、最先端の性能を達成した。実装コードは以下のGitHubリポジトリにて公開されている:https://github.com/Haoqing-Wang/CPNWCP。