2ヶ月前

対応提案からビデオ表現を学習する

Xingyu Liu; Joon-Young Lee; Hailin Jin
対応提案からビデオ表現を学習する
要約

フレーム間の対応関係は、動画内の動的コンテンツに関する豊富な情報を符号化しています。しかし、これらの対応関係は不規則な構造と複雑な動態を持つため、効果的に捕捉し学習することは困難です。本論文では、潜在的な対応関係から情報を集約することにより動画表現を学習する新しいニューラルネットワークを提案します。このネットワークは $CPNet$ と名付けられ、時間的一貫性を持つ進化する2Dフィールドを学習することができます。特に、RGBのみの入力によって外観と長距離の動きを混在させることで、動画の表現を効果的に学習することが可能です。我々は広範なアブレーション実験を提供してモデルの有効性を検証しました。CPNetはKineticsにおいて既存手法よりも優れた性能を示し、Something-SomethingおよびJesterにおいて最先端の性能を達成しています。また、提案手法における誤差に対するモデルの堅牢性について分析を行い、その結果も示しています。

対応提案からビデオ表現を学習する | 最新論文 | HyperAI超神経