17日前

Few-Shot Learningをドメイン適応として捉える:アルゴリズムと分析

Jiechao Guan, Zhiwu Lu, Tao Xiang, Ji-Rong Wen
Few-Shot Learningをドメイン適応として捉える:アルゴリズムと分析
要約

未観測クラスを少数のサンプルのみで認識するための少サンプル学習(Few-Shot Learning, FSL)は、既に観測されたクラスから学習した事前知識を利用している。FSLにおける主要な課題は、未観測クラスの分布が観測済みクラスの分布と異なっていることにより、観測クラス上でメタ学習を行ったモデルであっても一般化性能が低下する点にある。このクラス間差異に起因する分布シフトは、ドメインシフトの特殊なケースと捉えることができる。本論文では、初めてメタ学習フレームワーク内でこのようなドメインシフト問題に明示的に対処するための、注目機構を備えたドメイン適応型プロトタイプネットワーク(Domain Adaptation Prototypical Network with Attention, DAPNA)を提案する。具体的には、セット変換器(set transformer)に基づく注目モジュールを用い、観測クラスに重複のない2つのサブエピソードを1エピソードとして構成することで、観測クラスと未観測クラス間のドメインシフトを模倣する。限られた訓練サンプル条件下で、2つのサブエピソードの特徴分布を一致させるために、特徴転送ネットワークとマージン差違損失(Margin Disparity Discrepancy, MDD)損失を併用する。特に、DAPNAの学習限界(learning bound)について理論的解析を提供し、その有効性を裏付ける。広範な実験の結果、本手法は最先端のFSL手法を大きく上回る性能を示した。