Source Code Summarization On Deepcom Java
评估指标
BLEU-4
METEOR
评测结果
各个模型在此基准测试上的表现结果
比较表格
模型名称 | BLEU-4 | METEOR |
---|---|---|
assemble-foundation-models-for-automatic-code | 45.35 | 28.25% |
assemble-foundation-models-for-automatic-code | 45.3 | 28.19% |
各个模型在此基准测试上的表现结果
模型名称 | BLEU-4 | METEOR |
---|---|---|
assemble-foundation-models-for-automatic-code | 45.35 | 28.25% |
assemble-foundation-models-for-automatic-code | 45.3 | 28.19% |