
要約
メタ学習は、困難な少ショット学習設定に対処するためのフレームワークとして提案されています。この手法の基本的な考え方は、類似した多くの少ショットタスクを活用し、ラベル付きサンプルが少ない新しいタスクにベース・ラーナーを適応させる方法を学ぶことです。深層ニューラルネットワーク(DNN)は少数のサンプルで過学習しがちなため、メタ学習では一般的に浅いニューラルネットワーク(SNN)が使用され、その効果が制限されていました。本論文では、DNNを少ショット学習タスクに適応させる新たな少ショット学習手法であるメタ転移学習(MTL)を提案します。「メタ」は複数のタスクを訓練することを指し、「転移」は各タスクに対してDNNの重みのスケーリングとシフト関数を学ぶことで達成されます。さらに、MTLの効果的な学習カリキュラムとしてハード・タスク(HT)メタバッチスキームを導入します。miniImageNetおよびFewshot-CIFAR100という2つの挑戦的な少ショット学習ベンチマークにおいて、(5クラス, 1ショット)および(5クラス, 5ショット)認識タスクを使用して実験を行いました。関連研究との広範な比較により、提案されたHTメタバッチスキームで訓練された当社のメタ転移学習アプローチがトップパフォーマンスを達成することが確認されました。また、アブレーションスタディでも両成分が高速収束と高精度に寄与することが示されています。