17일 전

사전 훈련된 비전 모델을 통한 전이 학습과 데이터 변환을 이용한 텍스트 데이터 분류

Charaf Eddine Benarab
사전 훈련된 비전 모델을 통한 전이 학습과 데이터 변환을 이용한 텍스트 데이터 분류
초록

인간은 경험을 통해 지식을 습득하며, 다양한 작업에서 동시에 달성 가능한 지식의 종류나 기술 수준에 대해 경계를 두지 않는다. 그러나 신경망의 경우는 그렇지 않다. 이 분야의 돌파구는 매우 작업 및 도메인 특화되어 있다. 시각과 언어는 각각 별도의 방식으로 다루어지며, 별도의 방법과 서로 다른 데이터셋이 사용된다. 현재의 텍스트 분류 기법은 대부분 입력 텍스트 샘플에 대한 문맥 임베딩을 획득한 후, 임베딩된 데이터셋 위에서 분류기를 학습하는 방식에 의존한다. 일반적으로 언어 관련 작업에서의 전이 학습(Transfer Learning)은 입력 샘플에 대한 문맥적 텍스트 임베딩을 얻는 데 크게 활용된다. 본 연구에서는 ImageNet에서 사전 훈련된 벤치마크 시각 모델이 습득한 지식을 활용하여, 훨씬 더 작은 아키텍처가 텍스트를 분류하도록 돕는 방안을 제안한다. 구체적으로, BERT의 마지막 여섯 번째 계층에서 생성된 문장 임베딩을 t-SNE 기반의 방법으로 2차원 평면에 투영하여 각 이미지가 하나의 문장 임베딩을 나타내는 새로운 이미지 데이터셋을 생성하는 데이터 변환 기법을 사용하였다. 이 데이터셋을 기반으로, ImageNet에서 사전 훈련된 시각 모델의 초기 계층을 잘라낸 다섯 개의 모델을 IMDB 데이터셋(이 데이터셋은 BERT의 마지막 여섯 번째 계층으로 임베딩된 상태)에 대해 훈련시켰다. 언어와 시각 분야에서 사전 훈련된 대규모 모델을 연결하는 이 접근법은 매우 다른 데이터셋으로 인한 도전 과제에도 불구하고, 계산 자원을 추가로 사용하지 않고도 매우 유망한 실험 결과를 도출하였다. 특히, BERT 임베딩을 회색조 이미지로 변환한 후 동일한 이미지 데이터셋을 사용하여 다섯 개의 서로 다른 모델이 감성 분석(Sentiment Analysis)을 성공적으로 수행하였다.주요 용어: BERT, 합성곱 신경망(Convolutional Neural Networks), 도메인 적응(Domain Adaptation), 이미지 분류, 자연어 처리(Natural Language Processing), t-SNE, 텍스트 분류, 전이 학습(Transfer Learning)