
要約
動画補間は、連続する2枚のフレームの間に中間フレームを合成することで、動画シーケンスの時間分解能を向上させる技術である。本研究では、双方向運動推定に基づく新しい深層学習型動画補間アルゴリズムを提案する。まず、双方向コストボリュームを用いた双方向運動ネットワークを構築し、正確な双方向運動を推定する。次に、双方向運動を近似することで、異なる種類の双方向運動を予測する。その後、推定された双方向運動を用いて、2つの入力フレームを変形(ワープ)する。さらに、動的ブレンドフィルタを生成するための動的フィルタ生成ネットワークを設計する。最後に、変形されたフレームを動的ブレンドフィルタを用いて合成し、中間フレームを生成する。実験結果から、提案手法は複数のベンチマークデータセットにおいて、最先端の動画補間手法を上回る性能を発揮することが確認された。