Command Palette
Search for a command to run...
ChipQA:空間時間チップを用いたノンリファレンス動画品質予測
ChipQA:空間時間チップを用いたノンリファレンス動画品質予測
Joshua P. Ebenezer Zaixi Shang Yongjun Wu Hai Wei Sriram Sethuraman Alan C. Bovik
概要
本稿では、参照映像を必要としない動画品質評価(No-Reference Video Quality Assessment, VQA)のための新しいモデルを提案する。本手法は、「空間時間(Space-Time, ST)チップ」と呼ばれる、運動を暗黙的に捉える方向に沿って高局所的に切り取られた空間時間スライスを用いるという新規なアイデアに基づいている。まず、知覚に着想を得たバンドパスフィルタリングおよび正規化モデルを用いて動画データを処理し、その後、自然動画統計のパラメトリックモデルとの適合度に基づいて、方向性を有するSTチップを選択する。本研究では、これらの統計特性を記述するパラメータが、参照映像を用いずに動画品質を信頼性高く予測可能であることを示す。提案手法は、ST領域における自然性およびその自然性からの逸脱を暗黙的にモデル化する。本モデルは複数の大規模VQAデータベース上で学習・評価され、運動量の計算を必要とせずに、低コストで最先端の性能を達成することを示した。