HyperAI

AutoCaption Video Caption Benchmark-Datensatz

Datum

vor 9 Tagen

Veröffentlichungs-URL

huggingface.co

Lizenz

Apache 2.0

Download-Hilfe

Der AutoCaption-Datensatz ist ein Benchmark-Datensatz für Videountertitel, der 2025 vom Tjunlp Lab veröffentlicht wurde. Die zugehörigen Ergebnisse sind:Evaluierung multimodaler großer Sprachmodelle für Videountertitel mittels Monte-Carlo-Baumsuche“, dessen Ziel darin besteht, die Erforschung multimodaler großer Sprachmodelle im Bereich der Generierung von Videountertiteln zu fördern.

Datensatzstruktur:

Der Datensatz enthält 2 Teilmengen mit insgesamt 11.184 Beispielen:

  • sft_data: überwachte Feinabstimmung für Untertitelmodelle (9.419 Beispiele für überwachte Feinabstimmungsdaten)
  • mcts_vcb: Ausgewertet mit MCTS-generierten Untertiteln und Schlüsselpunkten (1.765 Beispiele zur Auswertung des MCTS-VCB-Benchmarks)