HyperAI
HyperAI초신경
홈
플랫폼
문서
뉴스
연구 논문
튜토리얼
데이터셋
백과사전
SOTA
LLM 모델
GPU 랭킹
컨퍼런스
전체 검색
소개
서비스 약관
개인정보 처리방침
한국어
HyperAI
HyperAI초신경
Toggle Sidebar
전체 사이트 검색...
⌘
K
Command Palette
Search for a command to run...
플랫폼
홈
SOTA
크로스-언어 질문 응답
Cross Lingual Question Answering On Xquad
Cross Lingual Question Answering On Xquad
평가 지표
Average F1
평가 결과
이 벤치마크에서 각 모델의 성능 결과
Columns
모델 이름
Average F1
Paper Title
mLUKE-E
74.2
mLUKE: The Power of Entity Representations in Multilingual Pretrained Language Models
Coupled
-
Rethinking embedding coupling in pre-trained language models
ByT5 XXL
-
ByT5: Towards a token-free future with pre-trained byte-to-byte models
Decoupled
-
Rethinking embedding coupling in pre-trained language models
0 of 4 row(s) selected.
Previous
Next
Cross Lingual Question Answering On Xquad | SOTA | HyperAI초신경