Coherence Evaluation On Gcdc Rst F1
Metriken
Average F1
Ergebnisse
Leistungsergebnisse verschiedener Modelle zu diesem Benchmark
Vergleichstabelle
Modellname | Average F1 |
---|---|
discourse-coherence-in-the-wild-a-dataset | 46.65 |
neural-rst-based-evaluation-of-discourse | 46.98 |
neural-rst-based-evaluation-of-discourse | 44.30 |