Coherence Evaluation On Gcdc Rst F1
Métriques
Average F1
Résultats
Résultats de performance de divers modèles sur ce benchmark
Tableau comparatif
Nom du modèle | Average F1 |
---|---|
discourse-coherence-in-the-wild-a-dataset | 46.65 |
neural-rst-based-evaluation-of-discourse | 46.98 |
neural-rst-based-evaluation-of-discourse | 44.30 |