衛星動画の知能型処理および分析は、リモートセンシング表現分野における研究のホットトピックの一つとなっており、衛星動画超解像(SVSR)は、衛星動画の画像品質を向上させる重要な研究方向性である。しかし、現在のSVSR手法は、衛星動画に内在する顕著な利点である「同一シーンを長時間にわたり連続的に捉えた大量の映像データ」を十分に活用していない傾向にある。現行の大多数のSVSR手法は、個々のフレームの解像度向上に際して、隣接する少数のフレームしか利用せず、結果として情報の利用効率が劣っている。こうした課題に対応して、本研究では衛星動画超解像用の再帰的集約ネットワーク(RASVSR)を提案する。この革新的なフレームワークは、双方向再帰型ニューラルネットワークを用いて、各フレームから抽出された特徴量を動画全体にわたって伝搬させる。特徴量のアライメントには、光流に基づく手法と可変畳み込み(Deformable Convolution, DCN)を組み合わせたアライメント方式を採用し、時間軸に沿った効果的な特徴量融合を実現するための「時間的特徴融合モジュール(Temporal Feature Fusion Module, TFF)」を構築している。本研究の重要な貢献の一つとして、SVSRにおいてより長い映像シーケンスを用いることのポジティブな影響を強調する。RASVSRでは、より優れたアライメントと融合機構により、各フレームの知覚領域を動画全体の100フレームにまで拡張し、豊富な情報を獲得するとともに、異なるフレーム間の情報が相互に補完的となる。この戦略的アプローチにより、他の手法と比較して顕著な性能向上が達成された。特にPSNRにおいて、わずかに少ないパラメータ数で1.15 dBの改善が確認された。