HyperAI
HyperAI
Startseite
Plattform
Dokumentation
Neuigkeiten
Forschungsarbeiten
Tutorials
Datensätze
Wiki
SOTA
LLM-Modelle
GPU-Rangliste
Veranstaltungen
Suche
Über
Nutzungsbedingungen
Datenschutzrichtlinie
Deutsch
HyperAI
HyperAI
Toggle Sidebar
Seite durchsuchen…
⌘
K
Command Palette
Search for a command to run...
Plattform
Startseite
SOTA
Kreuzsprachliche Fragebeantwortung
Cross Lingual Question Answering On Xquad
Cross Lingual Question Answering On Xquad
Metriken
Average F1
Ergebnisse
Leistungsergebnisse verschiedener Modelle zu diesem Benchmark
Columns
Modellname
Average F1
Paper Title
mLUKE-E
74.2
mLUKE: The Power of Entity Representations in Multilingual Pretrained Language Models
Coupled
-
Rethinking embedding coupling in pre-trained language models
ByT5 XXL
-
ByT5: Towards a token-free future with pre-trained byte-to-byte models
Decoupled
-
Rethinking embedding coupling in pre-trained language models
0 of 4 row(s) selected.
Previous
Next