Command Palette
Search for a command to run...
AutoCaption Video Caption Benchmark-Datensatz
Der AutoCaption-Datensatz ist ein Benchmark-Datensatz für Videountertitel, der 2025 vom Tjunlp Lab veröffentlicht wurde. Die zugehörigen Ergebnisse sind:Evaluierung multimodaler großer Sprachmodelle für Videountertitel mittels Monte-Carlo-Baumsuche“, dessen Ziel darin besteht, die Erforschung multimodaler großer Sprachmodelle im Bereich der Generierung von Videountertiteln zu fördern.
Datensatzstruktur:
Der Datensatz enthält 2 Teilmengen mit insgesamt 11.184 Beispielen:
- sft_data: überwachte Feinabstimmung für Untertitelmodelle (9.419 Beispiele für überwachte Feinabstimmungsdaten)
- mcts_vcb: Ausgewertet mit MCTS-generierten Untertiteln und Schlüsselpunkten (1.765 Beispiele zur Auswertung des MCTS-VCB-Benchmarks)
KI mit KI entwickeln
Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.