2달 전

최소 자원을 활용한 크로스-언어 네임드 엔티티 인식을 위한 개선된 메타-러닝

Qianhui Wu; Zijia Lin; Guoxin Wang; Hui Chen; Börje F. Karlsson; Biqing Huang; Chin-Yew Lin
최소 자원을 활용한 크로스-언어 네임드 엔티티 인식을 위한 개선된 메타-러닝
초록

주석된 자원이 없는 언어에 대한 명명된 개체 인식(NER)을 위해, 자원이 풍부한 언어에서 지식을 전송하는 것이 효과적인 해결책입니다. 기존의 모든 방법은 소스 학습 모델을 대상 언어로 직접 전송하지만, 본 논문에서는 테스트 사례가 주어졌을 때 몇 가지 유사한 예제를 통해 학습된 모델을 미세 조정(fine-tune)하는 방법을 제안합니다. 이는 유사한 예제에서 전달되는 구조적 및 의미 정보를 활용하여 예측 성능을 향상시킬 수 있습니다. 이를 위해, 주어진 테스트 사례에 빠르게 적응할 수 있는 좋은 모델 파라미터 초기화를 찾기 위한 메타학습 알고리즘을 제시하고, 문장 유사성을 계산하여 메타학습용으로 여러 가상 NER 작업(pseudo-NER tasks)을 구성하는 방법을 제안합니다. 또한 다양한 언어 간의 모델 일반화 능력을 더욱 향상시키기 위해, 마스킹 방식(masking scheme)을 도입하고 메타학습 중 손실 함수(loss function)에 추가적인 최대 항(maximum term)을 포함시킵니다. 우리는 5개의 대상 언어에 대해 최소한의 자원으로 이루어진 다국어 명명된 개체 인식 실험을 수행했습니다. 결과는 우리의 접근법이 기존의 최신 방법들보다 전반적으로 크게 우수함을 보여줍니다.

최소 자원을 활용한 크로스-언어 네임드 엔티티 인식을 위한 개선된 메타-러닝 | 최신 연구 논문 | HyperAI초신경