2달 전

비교, 압축 및 전파: 자연어 추론을 위한 정렬 인수분해를 활용한 신경망 구조 개선

Yi Tay; Luu Anh Tuan; Siu Cheung Hui
비교, 압축 및 전파: 자연어 추론을 위한 정렬 인수분해를 활용한 신경망 구조 개선
초록

본 논문은 자연어 추론(Natural Language Inference, NLI)을 위한 새로운 딥 러닝 아키텍처를 제시합니다. 첫째, 우리는 정렬 쌍을 비교하고 압축한 후 상위 계층으로 전파하여 표현 학습을 강화하는 새로운 아키텍처를 소개합니다. 둘째, 정렬 벡터를 스칼라 특성으로 효율적이고 표현력 있게 압축하기 위해 인수 분해 계층(factorization layers)을 도입하여 기본 단어 표현에 추가적으로 활용합니다. 우리의 접근 방식 설계는 개념적으로 간단하면서도 소형화되고 강력하도록 목표를 두고 있습니다. 우리는 SNLI, MultiNLI 및 SciTail 세 가지 유명한 벤치마크에서 실험을 수행하였으며, 모든 벤치마크에서 경쟁력 있는 성능을 달성하였습니다. 또한, 우리 모델의 경량화된 매개변수화는 기존 최신 모델(EsIM 및 DIIN 등)과 비교하여 약 3배 정도의 매개변수 크기 감소를 누리면서도 경쟁력 있는 성능을 유지하였습니다. 더불어 시각적 분석 결과, 전파된 특성이 매우 해석 가능하다는 것을 확인할 수 있었습니다.