HyperAIHyperAI
il y a 11 jours

Évaluation sans référence de la qualité vidéo utilisant des puces espace-temps

Joshua P. Ebenezer, Zaixi Shang, Yongjun Wu, Hai Wei, Alan C. Bovik
Évaluation sans référence de la qualité vidéo utilisant des puces espace-temps
Résumé

Nous proposons un nouveau modèle prototype pour l’évaluation de la qualité vidéo sans référence (VQA) fondé sur les statistiques naturelles des « chips » espace-temps des vidéos. Les « chips » espace-temps (ST-chips) constituent un nouvel espace de caractéristiques conscient de la qualité, défini comme des coupes localisées dans l’espace-temps des données vidéo, orientées selon le flux de mouvement local. Nous utilisons des ajustements de distributions paramétriques aux histogrammes passe-bande des ST-chips afin de caractériser la qualité, et montrons que les paramètres issus de ces modèles sont affectés par les distorsions, pouvant ainsi être utilisés pour prédire objectivement la qualité des vidéos. Notre méthode prototype, que nous appelons ChipQA-0, est indépendante du type de distorsion affectant la vidéo, et repose sur la détection et la quantification des écarts par rapport aux statistiques attendues des ST-chips naturels et non altérés, afin de prédire la qualité vidéo. Nous entraînons et testons notre modèle sur plusieurs bases de données VQA de grande taille, et démontrons qu’il atteint une forte corrélation avec les jugements humains de qualité vidéo, tout en étant compétitif par rapport aux modèles les plus avancés de l’état de l’art.

Évaluation sans référence de la qualité vidéo utilisant des puces espace-temps | Articles de recherche récents | HyperAI