Keine-Referenz-Videobewertung mithilfe von Space-Time-Chips

Wir schlagen ein neues Prototypenmodell für die no-reference-Bewertung der Videowiedergabequalität (VQA) vor, das auf den natürlichen Statistiken von Raum-Zeit-Chips (ST-Chips) von Videos basiert. Raum-Zeit-Chips (ST-Chips) stellen einen neuen, qualitätsbewussten Merkmalsraum dar, der als raumzeitlich lokalisierte Ausschnitte von Videodaten definiert ist, wobei die Richtungen durch den lokalen Bewegungsfluss bestimmt werden. Wir verwenden parametrisierte Verteilungsanpassungen an die Bandpass-Histogramme von ST-Chips zur Charakterisierung der Qualität und zeigen, dass die Parameter dieser Modelle durch Verzerrungen beeinflusst werden und daher zur objektiven Vorhersage der Videowiedergabequalität genutzt werden können. Unser Prototypverfahren, das wir ChipQA-0 nennen, ist unabhängig von der Art der Verzerrungen, die das Video beeinflussen, und basiert auf der Identifizierung und Quantifizierung von Abweichungen von den erwarteten Statistiken natürlicher, unverzerrter ST-Chips zur Vorhersage der Videowiedergabequalität. Wir trainieren und testen unser Modell an mehreren großen VQA-Datenbanken und zeigen, dass unser Modell eine hohe Korrelation mit menschlichen Beurteilungen der Videowiedergabequalität erreicht und damit state-of-the-art-Modellen ebenbürtig ist.