Cross Lingual Natural Language Inference On 1
Métriques
Accuracy
Résultats
Résultats de performance de divers modèles sur ce benchmark
Tableau comparatif
Nom du modèle | Accuracy |
---|---|
bert-pre-training-of-deep-bidirectional | 74.3% |
supervised-learning-of-universal-sentence | 60.7% |
supervised-learning-of-universal-sentence | 68.7% |
better-fine-tuning-by-reducing | 85.2% |