11일 전

베이스라인의 비합리적인 효과성: 법적 텍스트 분류에서의 SVM에 대한 논의

Benjamin Clavié, Marc Alphonsus
베이스라인의 비합리적인 효과성: 법적 텍스트 분류에서의 SVM에 대한 논의
초록

우리는 법적 자연어 처리(Natural Language Processing, NLP) 분야의 기술 발전에 대한 지속적인 논의에 기여하기 위해 주목할 만한 추세를 조명하고자 한다. 최근 대부분의 법적 텍스트 분류 작업에서 주목받는 방향은 BERT와 같은 대규모 사전 학습된 딥러닝 모델로의 전환이다. 본 논문에서는 LexGLUE 벤치마크에서의 분류 과제에 대해, 전통적인 서포트 벡터 머신(Support Vector Machine, SVM) 기반 접근법이 BERT 기반 모델과 비교하여 놀라울 정도로 경쟁력 있는 성능을 달성함을 보여준다. 또한, 일반 언어 작업과 비교했을 때 법적 도메인에서는 전문적인 BERT 기반 모델이 기준 모델보다 오류 감소 효과가 상대적으로 크지 않다는 점을 강조한다. 이러한 결과에 대한 잠재적 설명으로 세 가지 가설을 제시하고 논의함으로써, 향후 연구 논의를 뒷받침하고자 한다.

베이스라인의 비합리적인 효과성: 법적 텍스트 분류에서의 SVM에 대한 논의 | 최신 연구 논문 | HyperAI초신경