Source Code Summarization On Hybrid Deepcom
評価指標
BLEU-4
METEOR
評価結果
このベンチマークにおける各モデルのパフォーマンス結果
モデル名 | BLEU-4 | METEOR | Paper Title | Repository |
---|---|---|---|---|
AdaMo-basic | 37.64 | 25.59% | Assemble Foundation Models for Automatic Code Summarization |
0 of 1 row(s) selected.
このベンチマークにおける各モデルのパフォーマンス結果
モデル名 | BLEU-4 | METEOR | Paper Title | Repository |
---|---|---|---|---|
AdaMo-basic | 37.64 | 25.59% | Assemble Foundation Models for Automatic Code Summarization |