HyperAI
HyperAI
Startseite
Plattform
Dokumentation
Neuigkeiten
Forschungsarbeiten
Tutorials
Datensätze
Wiki
SOTA
LLM-Modelle
GPU-Rangliste
Veranstaltungen
Suche
Über
Nutzungsbedingungen
Datenschutzrichtlinie
Deutsch
HyperAI
HyperAI
Toggle Sidebar
Seite durchsuchen…
⌘
K
Command Palette
Search for a command to run...
Plattform
Startseite
SOTA
Alltagswissen
Common Sense Reasoning On Swag
Common Sense Reasoning On Swag
Metriken
Test
Ergebnisse
Leistungsergebnisse verschiedener Modelle zu diesem Benchmark
Columns
Modellname
Test
Paper Title
DeBERTalarge
90.8
DeBERTa: Decoding-enhanced BERT with Disentangled Attention
RoBERTa
89.9
RoBERTa: A Robustly Optimized BERT Pretraining Approach
BERT-LARGE
86.3
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
ESIM + ELMo
59.2
SWAG: A Large-Scale Adversarial Dataset for Grounded Commonsense Inference
ESIM + GloVe
52.7
SWAG: A Large-Scale Adversarial Dataset for Grounded Commonsense Inference
0 of 5 row(s) selected.
Previous
Next
Common Sense Reasoning On Swag | SOTA | HyperAI