Source Code Summarization On Hybrid Deepcom
평가 지표
BLEU-4
METEOR
평가 결과
이 벤치마크에서 각 모델의 성능 결과
모델 이름 | BLEU-4 | METEOR | Paper Title | Repository |
---|---|---|---|---|
AdaMo-basic | 37.64 | 25.59% | Assemble Foundation Models for Automatic Code Summarization |
0 of 1 row(s) selected.
이 벤치마크에서 각 모델의 성능 결과
모델 이름 | BLEU-4 | METEOR | Paper Title | Repository |
---|---|---|---|---|
AdaMo-basic | 37.64 | 25.59% | Assemble Foundation Models for Automatic Code Summarization |