HyperAIHyperAI

Command Palette

Search for a command to run...

Keine-Referenz-Videobewertung mithilfe von Space-Time-Chips

Joshua P. Ebenezer Zaixi Shang Yongjun Wu Hai Wei Alan C. Bovik

Zusammenfassung

Wir schlagen ein neues Prototypenmodell für die no-reference-Bewertung der Videowiedergabequalität (VQA) vor, das auf den natürlichen Statistiken von Raum-Zeit-Chips (ST-Chips) von Videos basiert. Raum-Zeit-Chips (ST-Chips) stellen einen neuen, qualitätsbewussten Merkmalsraum dar, der als raumzeitlich lokalisierte Ausschnitte von Videodaten definiert ist, wobei die Richtungen durch den lokalen Bewegungsfluss bestimmt werden. Wir verwenden parametrisierte Verteilungsanpassungen an die Bandpass-Histogramme von ST-Chips zur Charakterisierung der Qualität und zeigen, dass die Parameter dieser Modelle durch Verzerrungen beeinflusst werden und daher zur objektiven Vorhersage der Videowiedergabequalität genutzt werden können. Unser Prototypverfahren, das wir ChipQA-0 nennen, ist unabhängig von der Art der Verzerrungen, die das Video beeinflussen, und basiert auf der Identifizierung und Quantifizierung von Abweichungen von den erwarteten Statistiken natürlicher, unverzerrter ST-Chips zur Vorhersage der Videowiedergabequalität. Wir trainieren und testen unser Modell an mehreren großen VQA-Datenbanken und zeigen, dass unser Modell eine hohe Korrelation mit menschlichen Beurteilungen der Videowiedergabequalität erreicht und damit state-of-the-art-Modellen ebenbürtig ist.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Keine-Referenz-Videobewertung mithilfe von Space-Time-Chips | Paper | HyperAI