HyperAIHyperAI

Command Palette

Search for a command to run...

AutoCaption Video Caption Benchmark-Datensatz

Datum

vor 3 Monaten

Paper-URL

arxiv.org

Lizenz

Apache 2.0

Treten Sie der Discord-Community bei

Der AutoCaption-Datensatz ist ein Benchmark-Datensatz für Videountertitel, der 2025 vom Tjunlp Lab veröffentlicht wurde. Die zugehörigen Ergebnisse sind:Evaluierung multimodaler großer Sprachmodelle für Videountertitel mittels Monte-Carlo-Baumsuche“, dessen Ziel darin besteht, die Erforschung multimodaler großer Sprachmodelle im Bereich der Generierung von Videountertiteln zu fördern.

Datensatzstruktur:

Der Datensatz enthält 2 Teilmengen mit insgesamt 11.184 Beispielen:

  • sft_data: überwachte Feinabstimmung für Untertitelmodelle (9.419 Beispiele für überwachte Feinabstimmungsdaten)
  • mcts_vcb: Ausgewertet mit MCTS-generierten Untertiteln und Schlüsselpunkten (1.765 Beispiele zur Auswertung des MCTS-VCB-Benchmarks)

KI mit KI entwickeln

Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.

KI-Co-Coding
Sofort einsatzbereit GPUs
Beste Preise
Jetzt starten

Hyper Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
AutoCaption Video Caption Benchmark-Datensatz | Datensätze | HyperAI