2ヶ月前
事前知識の統合:LLMエンコーディングと擬似イベント規制を用いたビデオモーメント検索
Jiang, Yiyang ; Zhang, Wengyu ; Zhang, Xulu ; Wei, Xiaoyong ; Chen, Chang Wen ; Li, Qing

要約
本論文では、大規模言語モデル(LLMs)を用いて一般的な知識を統合し、疑似イベントをビデオモーメント検索(VMR)モデルにおける時間的なコンテンツ分布の事前情報として組み込むことの実現可能性について調査します。この研究の動機は、LLMsをディコーダーとして使用して離散的なテキスト記述を生成する際の制限に起因しています。これらの制限により、注目度スコアやフレーム間関係を捉えるフレーム間埋め込みなどの連続的な出力への直接的な応用が妨げられています。これらの制限を克服するために、我々はLLMsのエンコーダーを使用することを提案します。実現可能性の研究を通じて、テキスト埋め込みで学習していない場合でも、LLMエンコーダーがマルチモーダル埋め込みにおいて概念間関係を効果的に洗練できることを示しました。また、CLIP埋め込みと同様の概念間類似性パターンを持つBLIPやT5などの他の埋め込みにも、LLMエンコーダーの洗練能力が転送可能であることを示しました。既存のVMRアーキテクチャ、特にフュージョンモジュールにLLMエンコーダーを取り入れるための一般的なフレームワークを提示します。実験的検証を通じて、我々が提案する手法が最先端の性能を達成し、その有効性を示しています。ソースコードは https://github.com/fletcherjiang/LLMEPET からアクセスできます。