Text Summarization On Wikihow
Metriken
ROUGE-1
ROUGE-2
ROUGE-L
Ergebnisse
Leistungsergebnisse verschiedener Modelle zu diesem Benchmark
Vergleichstabelle
Modellname | ROUGE-1 | ROUGE-2 | ROUGE-L |
---|---|---|---|
wikihow-a-large-scale-text-summarization | 28.53 | 9.23 | 26.54 |
abstractive-summarization-of-spoken | 35.91 | 13.9 | 34.82 |
extractive-summarization-as-text-matching | 31.85 | 8.98 | 29.58 |