Source Code Summarization On Deepcom Java
評価指標
BLEU-4
METEOR
評価結果
このベンチマークにおける各モデルのパフォーマンス結果
比較表
モデル名 | BLEU-4 | METEOR |
---|---|---|
assemble-foundation-models-for-automatic-code | 45.35 | 28.25% |
assemble-foundation-models-for-automatic-code | 45.3 | 28.19% |
このベンチマークにおける各モデルのパフォーマンス結果
モデル名 | BLEU-4 | METEOR |
---|---|---|
assemble-foundation-models-for-automatic-code | 45.35 | 28.25% |
assemble-foundation-models-for-automatic-code | 45.3 | 28.19% |