2달 전
Civil Comments 데이터셋에서 유해한 댓글 분류를 위한 벤치마크
Corentin Duchene; Henri Jamet; Pierre Guillaume; Reda Dehak

초록
소셜 미디어에서 유해한 댓글을 감지하는 것은 콘텐츠 관리를 위해 필수적임이 입증되었습니다. 본 논문은 높은 불균형성을 가진 다중 라벨 혐오 발언 데이터셋에서 다양한 모델들을 비교합니다. 우리는 추론 시간과 성능 및 편향성을 측정하기 위한 여러 지표를 고려하여 비교를 수행하였습니다. 모든 BERT 변형들이 모델의 크기, 최적화 또는 사전 학습에 사용된 언어와 상관없이 유사한 성능을 보이는 것으로 나타났습니다. RNN은 BERT보다 추론 시간이 훨씬 빠릅니다. BiLSTM은 성능과 추론 시간 사이에서 좋은 균형을 유지합니다. Focal Loss를 사용한 RoBERTa는 편향성과 AUROC(Area Under the Receiver Operating Characteristic curve)에서 가장 우수한 성능을 보였습니다. 그러나 DistilBERT는 좋은 AUROC와 낮은 추론 시간을 동시에 제공합니다. 모든 모델들은 정체성 연관 편향性的에 영향을 받지만, BERT, RNN, 그리고 XLNet은 CNN과 Compact Convolutional Transformers보다 덜 민감하게 반응하였습니다.注:在最后一句中,“性的”一词在韩文中没有直接对应的表达,因此我将其省略以保持句子的流畅性和正式性。如果需要保留该词,可以在“정체성 연관”后面加上“적”(如:정체성 연관 적),但这样会使句子显得有些生硬。