Blinde Vorhersage der natürlichen Videoqualität

Wir schlagen ein blindes (kein Referenz- oder NR-) Video-Qualitätsbewertungsmodell vor, das nicht auf spezifische Störungen angewiesen ist. Der Ansatz basiert auf einem raumzeitlichen Modell von Videobildern im diskreten Kosinustransformationsbereich sowie auf einem Modell, das die Art der Bewegung in den Szenen charakterisiert, um die Videoqualität vorherzusagen. Mit diesen Modellen definieren wir Video-Statistiken und wahrnehmungsbezogene Merkmale, die die Grundlage eines Video-Qualitätsbewertungs-(VQA-)Algorithmus bilden, der nicht die Anwesenheit eines unverfälschten Referenzvideos erfordert, um einen wahrnehmbaren Qualitätswert vorherzusagen. Die Beiträge dieses Beitrags sind dreifach: 1) Wir stellen ein raumzeitliches natürliches Szenenstatistik-(NSS-)Modell für Videos vor. 2) Wir schlagen ein Bewegungsmodell vor, das die Bewegungskohärenz in Videobildern quantifiziert. 3) Wir zeigen, dass die vorgeschlagenen NSS- und Kohärenz-Bewegungsmodelle für die Qualitätsbewertung von Videos geeignet sind, und nutzen sie, um einen blinden VQA-Algorithmus zu entwerfen, der eine hohe Korrelation mit menschlichen Qualitätsurteilen aufweist. Der vorgeschlagene Algorithmus, der als video BLIINDS bezeichnet wird, wurde auf der LIVE-VQA-Datenbank und der EPFL-PoliMi-Videodatenbank getestet und zeigt eine Leistung, die nahe an der von führenden reduzierten und vollständigen Referenz-VQA-Algorithmen liegt.