
要約
本稿では、歪みの種類に依存しない(参照なし、NR)動画品質評価モデルを提案する。本手法は、離散コサイン変換(DCT)領域における動画シーンの空間時間的モデルと、シーン内の運動の種類を特徴づける運動モデルに依拠し、動画品質を予測する。これらのモデルを用いて、完全な参照動画(プリズム動画)が存在しなくても、人間の知覚品質スコアを予測可能な動画品質評価(VQA)アルゴリズムの基盤となる統計量および知覚特徴量を定義する。本研究の貢献は以下の3点である。1)動画向けの空間時間的自然シーン統計(NSS)モデルを提案する。2)動画シーンにおける運動の一貫性(運動コヒーレンス)を定量化する運動モデルを提案する。3)提案するNSSモデルおよび運動一貫性モデルが動画品質評価に適していることを示し、それらを活用して人間の品質判断と高い相関を示す盲目的VQAアルゴリズムを設計する。本研究で提案するアルゴリズムは「video BLIINDS」と呼ばれ、LIVE VQAデータベースおよびEPFL-PoliMi動画データベースにおいて評価された結果、トップクラスの低参照および完全参照VQAアルゴリズムと同等の性能を達成することが示された。