Semantic Textual Similarity
Benchmark-Liste
Alle Benchmarks für diese Aufgabe
cxc
Bestes Modell: PromCSE-RoBERTa-large (0.355B)
Metriken
Details anzeigen
mrpc
Bestes Modell: BERT-Base
Metriken
Details anzeigen
mrpc-dev
Bestes Modell: Synthesizer (R+V)
Metriken
Details anzeigen
mteb
Bestes Modell: AnglE-UAE
Metriken
Details anzeigen
senteval
Bestes Modell: XLNet-Large
Metriken
Details anzeigen
sick
Bestes Modell: SRoBERTa-NLI-large
Metriken
Details anzeigen
sts-benchmark
Bestes Modell: DeBERTa (large)
Metriken
Details anzeigen
sts12
Bestes Modell: PromptEOL+CSE+OPT-13B
Metriken
Details anzeigen
sts13
Bestes Modell: PromCSE-RoBERTa-large (0.355B)
Metriken
Details anzeigen
sts14
Bestes Modell: PromCSE-RoBERTa-large (0.355B)
Metriken
Details anzeigen
sts15
Bestes Modell: PromptEOL+CSE+LLaMA-30B
Metriken
Details anzeigen
sts16
Bestes Modell: AnglE-LLaMA-13B
Metriken
Details anzeigen
sick-r
Metriken
Details anzeigen