Command Palette
Search for a command to run...
R2-チューニング:効率的な画像から動画の転移学習による動画の時間的定位
R2-チューニング:効率的な画像から動画の転移学習による動画の時間的定位
Ye Liu¹,³* Jixuan He²,† Wanhua Li³ Junsik Kim³ Donglai Wei³ Hanspeter Pfister³ Chang Wen Chen¹,‡
概要
ビデオ時間的定位(VTG)は、自然言語のクエリが与えられた場合に、トリミングされていないビデオ内の関連するクリップを特定することを目指す微細なビデオ理解問題である。既存の大多数のVTGモデルは、フレーム単位の最終層CLIP特徴量に基づいて構築され、追加の時間的バックボーン(例えば、SlowFast)と洗練された時間的推論メカニズムによって補完されている。本研究では、各層が異なる粒度レベルで独自かつ有用な情報を提供するため、CLIP自体が微細な空間-時間モデリングに大きな可能性を持っていることを主張する。この動機から、我々はパラメータ効率とメモリ効率の高い転移学習フレームワークである逆方向再帰調整(R2-チューニング)を提案する。当手法は、総パラメータ数の1.5%のみを含む軽量なR2ブロックを学習し、進行的な空間-時間モデリングを行う。CLIPの最終層から始めて、R2ブロックは反復的に前期層からの空間特徴量を集約し、与えられたクエリに基づいて時間的相関を精緻化することで、粗い情報から細かい情報へと段階的に進めるスキームを形成する。R2-チューニングは追加のバックボーンなしでも6つの公開ベンチマーク(QVHighlights, Charades-STA, Ego4D-NLQ, TACoS, YouTube Highlights, TVSum)において3つのVTGタスク(すなわち、瞬間検索、ハイライト検出、ビデオ要約)で最先端の性能を達成しており、提案したスキームの重要性と有効性を示している。当研究のコードはhttps://github.com/yeliudev/R2-Tuningで入手可能である。