AutoCaption Video Caption Benchmark-Datensatz
Datum
vor 9 Tagen
Veröffentlichungs-URL
Lizenz
Apache 2.0
Kategorien
Der AutoCaption-Datensatz ist ein Benchmark-Datensatz für Videountertitel, der 2025 vom Tjunlp Lab veröffentlicht wurde. Die zugehörigen Ergebnisse sind:Evaluierung multimodaler großer Sprachmodelle für Videountertitel mittels Monte-Carlo-Baumsuche“, dessen Ziel darin besteht, die Erforschung multimodaler großer Sprachmodelle im Bereich der Generierung von Videountertiteln zu fördern.
Datensatzstruktur:
Der Datensatz enthält 2 Teilmengen mit insgesamt 11.184 Beispielen:
- sft_data: überwachte Feinabstimmung für Untertitelmodelle (9.419 Beispiele für überwachte Feinabstimmungsdaten)
- mcts_vcb: Ausgewertet mit MCTS-generierten Untertiteln und Schlüsselpunkten (1.765 Beispiele zur Auswertung des MCTS-VCB-Benchmarks)