Source Code Summarization On Parallelcorpus
評価指標
BLEU-4
METEOR
評価結果
このベンチマークにおける各モデルのパフォーマンス結果
比較表
モデル名 | BLEU-4 | METEOR |
---|---|---|
assemble-foundation-models-for-automatic-code | 33.85 | 21.68% |
assemble-foundation-models-for-automatic-code | 34.05 | 21.92% |
このベンチマークにおける各モデルのパフォーマンス結果
モデル名 | BLEU-4 | METEOR |
---|---|---|
assemble-foundation-models-for-automatic-code | 33.85 | 21.68% |
assemble-foundation-models-for-automatic-code | 34.05 | 21.92% |