Source Code Summarization On Deepcom Java
평가 지표
BLEU-4
METEOR
평가 결과
이 벤치마크에서 각 모델의 성능 결과
비교 표
모델 이름 | BLEU-4 | METEOR |
---|---|---|
assemble-foundation-models-for-automatic-code | 45.35 | 28.25% |
assemble-foundation-models-for-automatic-code | 45.3 | 28.19% |
이 벤치마크에서 각 모델의 성능 결과
모델 이름 | BLEU-4 | METEOR |
---|---|---|
assemble-foundation-models-for-automatic-code | 45.35 | 28.25% |
assemble-foundation-models-for-automatic-code | 45.3 | 28.19% |