ESPT:Few-Shot学習の向上を目的とした自己教師付きエピソード型空間事前タスク

近年、自己教師付き学習(Self-supervised Learning, SSL)技術が少サンプル学習(Few-shot Learning, FSL)フレームワークに統合され、少サンプル画像分類の性能向上において有望な成果を上げている。しかし、従来のFSLで用いられるSSLアプローチは、各画像のグローバルな埋め込みから教師信号を抽出することに主眼を置いており、FSLにおけるエピソード学習の過程で、画像サンプル内の局所的視覚情報やエピソード全体のデータ構造情報を十分に捉え・活用することができないという課題がある。この問題を解決するため、本研究では新たな自己教師付きエピソード空間前処理タスク(Episodic Spatial Pretext Task, ESPT)を導入し、少サンプル学習の目的関数を拡張する手法を提案する。具体的には、各少サンプルエピソードに対して、その中のすべての画像にランダムな幾何変換を適用して対応する変換エピソードを生成する。その後、このESPT目的関数は、元のエピソードと変換エピソードの間における局所的な空間的関係の一貫性を最大化することにより定義される。この定式化により、ESPTを導入したFSL目的関数は、入力エピソード内の異なる画像の局所的空間特徴およびそれらの相互関係を反映した構造的情報を捉えるより転移性の高い特徴表現の学習を促進し、少数のサンプルしか与えられない新しいカテゴリに対しても優れた一般化性能を実現する。広範な実験の結果、本手法は3つの代表的なベンチマークデータセットにおいて、少サンプル画像分類の分野で新たなSOTA(State-of-the-Art)性能を達成した。ソースコードは以下のURLで公開される予定である:https://github.com/Whut-YiRong/ESPT。