HyperAIHyperAI
il y a 2 mois

Q-Align : Enseignement des MML pour l'évaluation visuelle par niveaux définis par du texte discret

Wu, Haoning ; Zhang, Zicheng ; Zhang, Weixia ; Chen, Chaofeng ; Liao, Liang ; Li, Chunyi ; Gao, Yixuan ; Wang, Annan ; Zhang, Erli ; Sun, Wenxiu ; Yan, Qiong ; Min, Xiongkuo ; Zhai, Guangtao ; Lin, Weisi
Q-Align : Enseignement des MML pour l'évaluation visuelle par niveaux définis par du texte discret
Résumé

L'explosion du contenu visuel disponible en ligne souligne la nécessité d'un évaluateur machine précis capable d'évaluer de manière robuste des scores sur divers types de contenus visuels. Bien que des études récentes aient démontré les potentiels exceptionnels des grands modèles multimodaux (LMMs) dans une large gamme de domaines connexes, dans ce travail, nous explorons comment les former pour qu'ils évaluent le contenu visuel en accord avec les opinions humaines. Nous constatons que les évaluateurs humains n'apprennent et ne jugent que des niveaux discrets définis par du texte dans les études subjectives, et nous proposons donc d'émuler ce processus subjectif et de former les LMMs avec des niveaux d'évaluation définis par du texte plutôt que des scores. Le Q-Align proposé atteint des performances de pointe en matière d'évaluation de la qualité des images (IQA), d'évaluation esthétique des images (IAA) et d'évaluation de la qualité des vidéos (VQA) tout en conservant la structure originale des LMMs. Grâce à notre programme, nous unifions davantage ces trois tâches au sein d'un seul modèle, appelé OneAlign. Dans nos expériences, nous démontrons l'avantage du programme basé sur des niveaux discrets par rapport aux variantes basées sur des scores directs pour les LMMs. Notre code source et les poids pré-entraînés sont disponibles à l'adresse suivante : https://github.com/Q-Future/Q-Align.

Q-Align : Enseignement des MML pour l'évaluation visuelle par niveaux définis par du texte discret | Articles de recherche récents | HyperAI