2ヶ月前

イメージ変形メタネットワークによるワンショット学習

Zitian Chen; Yanwei Fu; Yu-Xiong Wang; Lin Ma; Wei Liu; Martial Hebert
イメージ変形メタネットワークによるワンショット学習
要約

人間は、画像が様々な変形を経て特定の情報が失われた場合でも、新しい視覚的概念を堅固に学習することができます。同様の行動を模倣し、新しい概念の変形インスタンスを合成することで、視覚認識システムが一発学習(one-shot learning)においてより良い性能を発揮する可能性があります。つまり、一つまたは少数の例から概念を学習することです。我々の重要な洞察は、変形された画像が視覚的に現実的でない場合でも、依然として重要な意味情報を保持しており、分類器の決定境界の形成に大きく貢献するという点です。最近のメタ学習の進歩に触発されて、我々はメタラーナーと画像変形サブネットワークを組み合わせました。このサブネットワークは追加の訓練例を生成し、両方のモデルをエンドツーエンドで最適化します。画像変形サブネットワークは、視覚的内容を維持するプローブ画像と変形を多様化するギャラリ画像という2つの画像ペアを融合することで、画像の変形方法を学習します。我々は広く使用されている一発学習ベンチマーク(miniImageNetおよびImageNet 1Kチャレンジデータセット)での結果を示し、これらは最先端の手法よりも大幅に優れています。コードはhttps://github.com/tankche1/IDeMe-Netで入手可能です。