Generative Question Answering On Cicero
Metriken
ROUGE
Ergebnisse
Leistungsergebnisse verschiedener Modelle zu diesem Benchmark
Vergleichstabelle
Modellname | ROUGE |
---|---|
cicero-a-dataset-for-contextualized | 0.2980 |
cicero-a-dataset-for-contextualized | 0.2946 |
cicero-a-dataset-for-contextualized | 0.2878 |
cicero-a-dataset-for-contextualized | 0.2837 |