11日前

20,000クラスを用いたプロンプト事前学習によるオープンボリューム視覚認識

Shuhuai Ren, Aston Zhang, Yi Zhu, Shuai Zhang, Shuai Zheng, Mu Li, Alex Smola, Xu Sun
20,000クラスを用いたプロンプト事前学習によるオープンボリューム視覚認識
要約

本研究では、視覚・言語モデル向けのプロンプト事前学習手法「POMP」を提案する。POMPはメモリおよび計算効率に優れており、2万を超えるクラスをカバーする多様な視覚的概念の意味情報を効果的に凝縮したプロンプトを学習可能である。事前学習が完了した後、高い転移性を持つこのプロンプトは、画像分類、セマンティックセグメンテーション、オブジェクト検出など、多様な視覚認識タスクに直接適用でき、ゼロショットの状態で認識性能を向上させることが可能である。実証的な評価により、POMPは21のデータセットにおいて最先端の性能を達成した。例えば、10個の画像分類データセットにおける平均精度は67.0%(CoOp比で+3.1%)であり、オープンボキャブラリーパスカルVOCセグメンテーションではhIoUが84.4(ZSSeg比で+6.9)を記録した。本研究のコードは、https://github.com/amazon-science/prompt-pretraining にて公開されている。

20,000クラスを用いたプロンプト事前学習によるオープンボリューム視覚認識 | 最新論文 | HyperAI超神経