Command Palette
Search for a command to run...
AutoCaption Video Caption Benchmark-Datensatz
Der AutoCaption-Datensatz ist ein Benchmark-Datensatz für Videountertitel, der 2025 vom Tjunlp Lab veröffentlicht wurde. Die zugehörigen Ergebnisse sind:Evaluierung multimodaler großer Sprachmodelle für Videountertitel mittels Monte-Carlo-Baumsuche“, dessen Ziel darin besteht, die Erforschung multimodaler großer Sprachmodelle im Bereich der Generierung von Videountertiteln zu fördern.
Datensatzstruktur:
Der Datensatz enthält 2 Teilmengen mit insgesamt 11.184 Beispielen:
- sft_data: überwachte Feinabstimmung für Untertitelmodelle (9.419 Beispiele für überwachte Feinabstimmungsdaten)
- mcts_vcb: Ausgewertet mit MCTS-generierten Untertiteln und Schlüsselpunkten (1.765 Beispiele zur Auswertung des MCTS-VCB-Benchmarks)
KI mit KI entwickeln
Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.
KI-Co-Coding
Sofort einsatzbereit GPUs
Beste Preise
Hyper Newsletters
Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp