8日前

MART:一貫性のあるビデオパラグラフキャプション生成のためのメモリ拡張型再帰的Transformer

Jie Lei, Liwei Wang, Yelong Shen, Dong Yu, Tamara L. Berg, Mohit Bansal
MART:一貫性のあるビデオパラグラフキャプション生成のためのメモリ拡張型再帰的Transformer
要約

動画に対する複数文構成の記述生成は、視覚的な関連性に加え、文章間の話法的整合性(discourse-based coherence)を高いレベルで要求するため、最も困難なキャプション生成タスクの一つである。本研究では、この課題に向け、Transformerアーキテクチャをメモリモジュールで拡張する新しいアプローチである「メモリ拡張型再帰的Transformer(Memory-Augmented Recurrent Transformer: MART)」を提案する。このメモリモジュールは、動画のセグメントと既出の文脈履歴から、高度に要約されたメモリ状態を生成し、次の文の予測(特に照応関係や繰り返しの制御に寄与)をより適切に行うことを可能にする。その結果、一貫性の高い段落レベルのキャプション生成が促進される。ActivityNet CaptionsおよびYouCookIIという2つの代表的なデータセットにおいて、広範な実験、人間評価および定性的分析を行った結果、MARTはベースライン手法と比較して、入力動画のイベントと高い関連性を維持しつつ、より一貫性が高く、重複が少ない段落形式のキャプションを生成することが明らかになった。本研究のすべてのコードは、オープンソースとして公開されており、以下のURLから入手可能である:https://github.com/jayleicn/recurrent-transformer

MART:一貫性のあるビデオパラグラフキャプション生成のためのメモリ拡張型再帰的Transformer | 最新論文 | HyperAI超神経