9日前

長尾認識のための仮想例の蒸留

Yin-Yin He, Jianxin Wu, Xiu-Shen Wei
長尾認識のための仮想例の蒸留
要約

長尾視覚認識問題に、知識蒸留(knowledge distillation)の観点からアプローチするため、仮想例(Virtual Examples)を蒸留する手法であるDiVE(Distill the Virtual Examples)を提案する。具体的には、教師モデルの予測値を仮想例として扱い、特定の制約下ではこれらの仮想例からの蒸留がラベル分布学習(label distribution learning)と等価であることを理論的に示す。さらに、仮想例の分布が元の入力分布よりも平らになる場合、代表度が低い末尾クラス(tail classes)において顕著な性能向上が達成されることを示す。これは長尾認識において極めて重要である。提案手法DiVEは、仮想例の分布を明示的に平らに調整可能である。3つのベンチマークデータセット(大規模なiNaturalistを含む)における広範な実験により、DiVEが最先端手法を顕著に上回ることを実証した。さらに、仮想例の解釈の妥当性を検証する分析および追加実験を通じて、DiVEが長尾問題に特化した設計の有効性を裏付けている。

長尾認識のための仮想例の蒸留 | 最新論文 | HyperAI超神経