2달 전

MultiFiT: 효율적인 다국어 언어 모델 미세 조정

Julian Martin Eisenschlos; Sebastian Ruder; Piotr Czapla; Marcin Kardas; Sylvain Gugger; Jeremy Howard
MultiFiT: 효율적인 다국어 언어 모델 미세 조정
초록

事전 학습 언어 모델은 라벨링되지 않은 데이터만을 필요로 하기 때문에 저자원 언어에 대해 특히 유망합니다. 그러나 기존 모델의 학습에는 막대한 양의 컴퓨팅 자원이 필요하며, 사전 학습된 다국어 모델은 종종 저자원 언어에서 성능이 부족합니다. 본 연구에서는 실무자가 자신의 언어에서 효율적으로 언어 모델을 학습하고 미세 조정(fine-tuning)할 수 있도록 다국어 언어 모델 미세 조정(MultiFiT) 방법을 제안합니다. 또한, 기존의 사전 학습된 다국어 모델을 사용하는 제로샷(zero-shot) 방법도 제안합니다. 우리는 두 가지 널리 사용되는 다국어 분류 데이터셋에서 이 방법들을 평가하였으며, 이들은 수십 배 많은 데이터와 컴퓨팅 자원으로 사전 학습된 모델들보다 우수한 성능을 보였습니다. 모든 모델과 코드를 공개합니다.

MultiFiT: 효율적인 다국어 언어 모델 미세 조정 | 최신 연구 논문 | HyperAI초신경