Conversational Response Selection On Ubuntu 3
평가 지표
Accuracy
평가 결과
이 벤치마크에서 각 모델의 성능 결과
비교 표
모델 이름 | Accuracy |
---|---|
mpc-bert-a-pre-trained-language-model-for | 63.64 |
addressee-and-response-selection-for-multi | 36.93 |
speaker-aware-bert-for-multi-turn-response | 60.42 |
addressee-and-response-selection-for-multi | 36.93 |
addressee-and-response-selection-in-multi | 40.83 |