
要約
ビデオと言語の統合理解は、多くの応用を持つ活発な研究分野です。この領域での従来の研究は、通常、テキスト-ビデオ埋め込みの学習に依存しています。しかし、このアプローチの一つの難点は、大規模な注釈付きビデオキャプションデータセットが不足していることです。この問題を解決するために、我々は異なるデータソースからテキスト-ビデオ埋め込みを学習することを目指しています。そのために、入力モダリティが訓練中に欠落していても処理できる Mixture-of-Embedding-Experts (MEE) モデルを提案します。これにより、我々のフレームワークは画像データセットとビデオデータセットから同時に改善されたテキスト-ビデオ埋め込みを学習することができます。また、MEEモデルが顔記述子などの他の入力モダリティにも汎化可能であることを示しています。我々はMPIIムービー説明データセットとMSR-VTTデータセットを使用して、ビデオ検索タスクで提案手法を評価し、結果を報告します。提案されたMEEモデルは両方のテキスト-ビデオおよびビデオ-テキスト検索タスクにおいて大幅な改善を示し、以前に報告された方法よりも優れた性能を達成しました。コードは以下のURLで利用可能です: https://github.com/antoine77340/Mixture-of-Embedding-Experts