Question Answering On Mrqa 2019
Metriken
Average F1
Ergebnisse
Leistungsergebnisse verschiedener Modelle zu diesem Benchmark
Vergleichstabelle
Modellname | Average F1 |
---|---|
linkbert-pretraining-language-models-with | 81.0 |
bert-pre-training-of-deep-bidirectional | 78.5 |