HyperAIHyperAI

Command Palette

Search for a command to run...

Relier la recherche vidéo-texte avec des questions à choix multiple

Yuying Ge Yixiao Ge Xihui Liu Dian Li Ying Shan Xiaohu Qie Ping Luo

Résumé

L'entraînement préalable d'un modèle pour apprendre une représentation vidéo-texte transférable en vue de la recherche a suscité beaucoup d'attention ces dernières années. Les travaux précédents dominants utilisent principalement deux encodeurs distincts pour une recherche efficace, mais négligent les associations locales entre vidéos et textes. Une autre ligne de recherche utilise un encodeur conjoint pour interagir entre vidéo et texte, mais cela entraîne une faible efficacité car chaque paire texte-vidéo doit être alimentée au modèle. Dans ce travail, nous permettons des interactions vidéo-texte fines tout en maintenant une haute efficacité pour la recherche grâce à une nouvelle tâche prétexte, appelée Questions à Choix Multiple (MCQ), où un module paramétrique nommé BridgeFormer est entraîné pour répondre aux « questions » construites par les caractéristiques du texte en s'appuyant sur les caractéristiques de la vidéo. Plus précisément, nous exploitons les sémantiques riches du texte (c'est-à-dire les noms et les verbes) pour construire des questions, avec lesquelles l'encodeur vidéo peut être entraîné à capturer plus de contenu régional et de dynamiques temporelles. Sous forme de questions et réponses, les associations sémantiques entre les caractéristiques locales vidéo-texte peuvent être établies correctement. BridgeFormer peut être supprimé pour la recherche en aval, rendant ainsi un modèle efficace et flexible ne comportant que deux encodeurs. Notre méthode surpasse les méthodes de pointe dans la tâche populaire de recherche vidéo par le texte sur cinq jeux de données avec différentes configurations expérimentales (c'est-à-dire zéro-shot et fine-tune), y compris HowTo100M (un million de vidéos). Nous menons également une reconnaissance d'action zéro-shot, qui peut être considérée comme une recherche texte par la vidéo, et notre approche dépasse également largement ses homologues. En outre, notre méthode obtient des résultats compétitifs avec des vidéos d'entraînement préalable beaucoup plus courtes sur des tâches en aval mono-modale, par exemple la reconnaissance d'action avec évaluation linéaire.


Créer de l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec le co-codage IA gratuit, un environnement prêt à l'emploi et le meilleur prix pour les GPU.

Codage assisté par IA
GPU prêts à l’emploi
Tarifs les plus avantageux

HyperAI Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp