動画スーパーレゾリューション技術の目的は、低解像度(LR)動画から高解像度(HR)動画を効果的に復元する問題を解決することにある。従来の手法は、フレーム同士のアライメントに光学フローを用いることが多く、空間的・時間的な視点からネットワーク構造を設計していた。しかし、光学フローの推定に誤差が生じやすく、その結果、復元品質が低下する問題があった。さらに、複数の動画フレームから得られる特徴量を効果的に融合する方法は、依然として困難な課題である。本研究では、これらの問題に対して新たな視点から対処するため、局所-全体融合ネットワーク(Local-Global Fusion Network, LGFN)を提案する。光学フローの代替として、多スケール膨張を抑えた可変畳み込み(Deformable Convolutions, DCs)と、多拡張畳み込みユニット(Decreased Multi-Dilation Convolution Units, DMDCUs)を組み合わせ、効率的な非明示的アライメントを実現する。また、局所的融合モジュール(Local Fusion Module, LFM)と全体的融合モジュール(Global Fusion Module, GFM)の二本の分岐構造を持つ新たなフレームワークを提案する。具体的には、LFMは隣接フレーム間の関係に注目し、時間的整合性を維持する一方、GFMは動画シャッフル戦略を用いて、関連するすべての特徴量をグローバルに活用することを試みる。本研究で提案する先進的なネットワークにより、複数のデータセットにおける実験結果から、最先端の手法と比較しても競争力のある性能を達成するとともに、多様な動画フレームの復元においても信頼性の高い能力を有することが示された。LGFNのベンチマークデータセットにおける評価結果は、https://github.com/BIOINSu/LGFN にて公開されており、論文が採択された段階でソースコードも公開予定である。