HyperAIHyperAI

Command Palette

Search for a command to run...

Évaluation sans référence de la qualité vidéo utilisant des puces espace-temps

Joshua P. Ebenezer Zaixi Shang Yongjun Wu Hai Wei Alan C. Bovik

Résumé

Nous proposons un nouveau modèle prototype pour l’évaluation de la qualité vidéo sans référence (VQA) fondé sur les statistiques naturelles des « chips » espace-temps des vidéos. Les « chips » espace-temps (ST-chips) constituent un nouvel espace de caractéristiques conscient de la qualité, défini comme des coupes localisées dans l’espace-temps des données vidéo, orientées selon le flux de mouvement local. Nous utilisons des ajustements de distributions paramétriques aux histogrammes passe-bande des ST-chips afin de caractériser la qualité, et montrons que les paramètres issus de ces modèles sont affectés par les distorsions, pouvant ainsi être utilisés pour prédire objectivement la qualité des vidéos. Notre méthode prototype, que nous appelons ChipQA-0, est indépendante du type de distorsion affectant la vidéo, et repose sur la détection et la quantification des écarts par rapport aux statistiques attendues des ST-chips naturels et non altérés, afin de prédire la qualité vidéo. Nous entraînons et testons notre modèle sur plusieurs bases de données VQA de grande taille, et démontrons qu’il atteint une forte corrélation avec les jugements humains de qualité vidéo, tout en étant compétitif par rapport aux modèles les plus avancés de l’état de l’art.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Évaluation sans référence de la qualité vidéo utilisant des puces espace-temps | Articles | HyperAI