Multi Label Text Classification On Cc3M
Métriques
Accuracy
F1
Precision
Recall
Résultats
Résultats de performance de divers modèles sur ce benchmark
Tableau comparatif
Nom du modèle | Accuracy | F1 | Precision | Recall |
---|---|---|---|---|
qwen-technical-report | 80.9 | 62.1 | 69.3 | 56.2 |
Modèle 2 | 75.9 | 60.4 | 52.7 | 70.7 |
ttd-text-tag-self-distillation-enhancing | 91.0 | 78.5 | 82.9 | 74.5 |
nltk-the-natural-language-toolkit | 79.6 | 69.8 | 59.8 | 83.7 |
Modèle 5 | 70.9 | 54.4 | 44.1 | 71.0 |
ttd-text-tag-self-distillation-enhancing | 88.6 | 82.8 | 88.3 | 78.0 |