15日前

シンプルこそ最良:分類器重み変換器を用いたFew-shotセマンティックセグメンテーション

Zhihe Lu, Sen He, Xiatian Zhu, Li Zhang, Yi-Zhe Song, Tao Xiang
シンプルこそ最良:分類器重み変換器を用いたFew-shotセマンティックセグメンテーション
要約

少量サンプルにおける意味的セグメンテーションモデルは、通常、CNNエンコーダ、CNNデコーダ、および前景と背景のピクセルを分類するシンプルな分類器から構成される。既存の多くの方針は、新しいクラスへの迅速な適応を実現するため、この3つのモデル構成要素すべてをメタ学習によって最適化している。しかしながら、サポートセットにたった1枚の画像しか存在しない場合、3つの構成要素すべてを新しいクラスに効果的に適応させることは極めて困難である。本研究では、最も単純な構成要素である分類器にのみ注目し、エンコーダとデコーダは事前学習のままとするという、メタ学習タスクの簡略化を提案する。我々の仮説は、十分なアノテーションを持つ多様なトレーニングクラスを用いて汎用的なセグメンテーションモデルを事前学習することで、エンコーダとデコーダが未観測クラスにも適用可能な豊富な識別的特徴を抽出できるようになることである。その結果、後続のメタ学習ステージは不要となると考えられる。分類器のメタ学習のため、我々は、サポートセットで学習された分類器の重みを、各クエリ画像に対して誘導的に動的に適応させるための「分類器重み変換器(Classifier Weight Transformer: CWT)」を提案する。2つの標準ベンチマークにおける広範な実験の結果、本手法はその単純さにもかかわらず、最先端の代替手法をしばしば大きく上回ることが示された。コードは https://github.com/zhiheLu/CWT-for-FSS で公開されている。

シンプルこそ最良:分類器重み変換器を用いたFew-shotセマンティックセグメンテーション | 最新論文 | HyperAI超神経