Generative Question Answering On Cicero
評価指標
ROUGE
評価結果
このベンチマークにおける各モデルのパフォーマンス結果
比較表
モデル名 | ROUGE |
---|---|
cicero-a-dataset-for-contextualized | 0.2980 |
cicero-a-dataset-for-contextualized | 0.2946 |
cicero-a-dataset-for-contextualized | 0.2878 |
cicero-a-dataset-for-contextualized | 0.2837 |