Kg To Text Generation On Webnlg Seen
평가 지표
BLEU
METEOR
chrF++
평가 결과
이 벤치마크에서 각 모델의 성능 결과
비교 표
모델 이름 | BLEU | METEOR | chrF++ |
---|---|---|---|
investigating-pretrained-language-models-for | 63.45 | 45.49 | 77.57 |
investigating-pretrained-language-models-for | 64.71 | 45.85 | 78.29 |
이 벤치마크에서 각 모델의 성능 결과
모델 이름 | BLEU | METEOR | chrF++ |
---|---|---|---|
investigating-pretrained-language-models-for | 63.45 | 45.49 | 77.57 |
investigating-pretrained-language-models-for | 64.71 | 45.85 | 78.29 |