Table To Text Generation On Webnlg Unseen
評価指標
BLEU
METEOR
TER
評価結果
このベンチマークにおける各モデルのパフォーマンス結果
比較表
モデル名 | BLEU | METEOR | TER |
---|---|---|---|
htlm-hyper-text-pre-training-and-prompting-of | 43.1 | 0.38 | 0.53 |
htlm-hyper-text-pre-training-and-prompting-of | 48.4 | 0.39 | 0.51 |
このベンチマークにおける各モデルのパフォーマンス結果
モデル名 | BLEU | METEOR | TER |
---|---|---|---|
htlm-hyper-text-pre-training-and-prompting-of | 43.1 | 0.38 | 0.53 |
htlm-hyper-text-pre-training-and-prompting-of | 48.4 | 0.39 | 0.51 |