Source Code Summarization On Parallelcorpus
Metriken
BLEU-4
METEOR
Ergebnisse
Leistungsergebnisse verschiedener Modelle zu diesem Benchmark
Vergleichstabelle
Modellname | BLEU-4 | METEOR |
---|---|---|
assemble-foundation-models-for-automatic-code | 33.85 | 21.68% |
assemble-foundation-models-for-automatic-code | 34.05 | 21.92% |