Code Translation On Codexglue Codetrans
Métriques
Accuracy (C#→Java)
Accuracy (Java→C#)
BLEU (C#→Java)
BLEU (Java→C#)
Résultats
Résultats de performance de divers modèles sur ce benchmark
Nom du modèle | Accuracy (C#→Java) | Accuracy (Java→C#) | BLEU (C#→Java) | BLEU (Java→C#) | Paper Title | Repository |
---|---|---|---|---|---|---|
CodeT5 | 66.90 | 65.90 | 79.87 | 84.03 | CodeT5: Identifier-aware Unified Pre-trained Encoder-Decoder Models for Code Understanding and Generation | |
CodeBERT | 58 | 59 | 72.14 | 79.92 | CodeXGLUE: A Machine Learning Benchmark Dataset for Code Understanding and Generation |
0 of 2 row(s) selected.