HyperAIHyperAI

Command Palette

Search for a command to run...

Ensemble De Données De Référence Sur Les sous-titres Vidéo AutoCaption

Date

il y a 3 mois

URL de l'article

arxiv.org

Licence

Apache 2.0

Rejoignez la communauté Discord

L'ensemble de données AutoCaption est un ensemble de données de référence de sous-titrage vidéo publié par Tjunlp Lab en 2025. Les résultats de l'article associé sont «Évaluation de modèles linguistiques multimodaux de grande taille pour le sous-titrage vidéo via la recherche arborescente de Monte-Carlo", qui vise à promouvoir la recherche de grands modèles linguistiques multimodaux dans le domaine de la génération de sous-titres vidéo.

Structure du jeu de données :

L'ensemble de données contient 2 sous-ensembles, avec un total de 11 184 échantillons :

  • sft_data : réglage fin supervisé pour les modèles de sous-titres (9 419 échantillons pour les données de réglage fin supervisé)
  • mcts_vcb : évalué à l'aide des légendes et des points clés générés par MCTS (1 765 échantillons pour évaluer le benchmark MCTS-VCB)

Construire l'IA avec l'IA

De l'idée au lancement — accélérez votre développement IA avec du co-codage IA gratuit, un environnement prêt à l'emploi et les meilleurs prix GPU.

Co-codage IA
GPU prêts à utiliser
Meilleurs prix
Commencer

Hyper Newsletters

Abonnez-vous à nos dernières mises à jour
Nous vous enverrons les dernières mises à jour de la semaine dans votre boîte de réception à neuf heures chaque lundi matin
Propulsé par MailChimp
Ensemble De Données De Référence Sur Les sous-titres Vidéo AutoCaption | Ensembles de données | HyperAI