Source Code Summarization On Deepcom Java
Métriques
BLEU-4
METEOR
Résultats
Résultats de performance de divers modèles sur ce benchmark
Tableau comparatif
Nom du modèle | BLEU-4 | METEOR |
---|---|---|
assemble-foundation-models-for-automatic-code | 45.35 | 28.25% |
assemble-foundation-models-for-automatic-code | 45.3 | 28.19% |