17日前

条件付き埋め込みを用いた動画とテキストのマッチング

Ameen Ali, Idan Schwartz, Tamir Hazan, Lior Wolf
条件付き埋め込みを用いた動画とテキストのマッチング
要約

本稿では、与えられたコーパス内のテキスト文と動画クリップとの間で相互に一致させる手法を提示する。従来の動画とテキストの一致手法は、共有埋め込み空間を学習し、一方のモダリティの符号化が他方のモダリティに依存しない形で行われていた。本研究では、照合対象のクエリに関連する情報を考慮したデータセットの符号化方法を提案する。この手法の有効性は、単語とフレーム間の相互作用データを統合することに起因している。動画クリップの符号化が比較対象の文に依存するため、各潜在的な一致候補に対して表現を再計算する必要がある。これに対応して、効率的な浅層ニューラルネットワークを提案する。訓練には、段階的トリプレット損失(hierarchical triplet loss)を用い、段落/動画一致への拡張も可能である。本手法はシンプルでありながら、解釈可能性を備え、ActivityNet、DiDeMo、YouCook2、MSR-VTT、LSMDCの5つの異なるデータセットにおいて、文/クリップ一致および動画/テキスト一致の両方で、従来の最先端手法を大きく上回る性能を達成している。また、条件付き表現が動画誘導型機械翻訳タスクへも転移可能であることを示し、VATEXデータセットにおける既存の結果を改善した。ソースコードは https://github.com/AmeenAli/VideoMatch にて公開されている。

条件付き埋め込みを用いた動画とテキストのマッチング | 最新論文 | HyperAI超神経