8日前

COOT:動画・テキスト表現学習のための協調的階層型Transformer

Simon Ging, Mohammadreza Zolfaghari, Hamed Pirsiavash, Thomas Brox
COOT:動画・テキスト表現学習のための協調的階層型Transformer
要約

現実世界における動画-テキストタスクの多くは、フレームと単語、クリップと文、あるいは動画と段落といった異なる粒度レベルを含んでおり、それぞれが異なる意味構造を持つ。本論文では、こうした階層構造情報を活用し、異なる粒度レベルおよび異なるモダリティ間の相互作用をモデル化するための協調的階層型Transformer(Cooperative hierarchical Transformer, COOT)を提案する。本手法は、以下の3つの主要な構成要素からなる:局所的時間的文脈(例:クリップ内におけるイントラレベル)を活用するアテンション意識型特徴集約層、低レベルと高レベルの意味構造間の相互作用(例:クリップ-動画、文-段落)を学習するコンテキスト変換器、および動画とテキストをつなぐクロスモーダル循環整合性損失(cross-modal cycle-consistency loss)。提案手法は、複数のベンチマークにおいて最先端の手法と比較しても優れた性能を発揮しつつ、パラメータ数が少ないという利点を持つ。すべてのコードはオープンソースとしてGitHubにて公開されており、https://github.com/gingsi/coot-videotext から入手可能である。

COOT:動画・テキスト表現学習のための協調的階層型Transformer | 最新論文 | HyperAI超神経