
초록
우리는 BERT 기반 모델을 활용하여 텍스트-to-SQL 문제를 해결하기 위해 테이블 내용을 효과적으로 활용하는 간단한 방법을 제안한다. 질문 문자열에 포함된 일부 단어와 테이블 내용이 일치하는 경우와, 질문 문자열에 포함된 일부 단어와 테이블 헤더가 일치하는 경우를 관찰한 바, 심층 학습 모델에 추가적인 두 가지 특징 벡터를 인코딩한다. 또한, 훈련과 테스트 시기에 테이블이 거의 동일하므로 모델의 추론 속도 향상에도 기여한다. 제안한 모델을 WikiSQL 데이터셋에서 검증한 결과, 기준 BERT 기반 모델 대비 논리 구조 정확도에서 3.7%, 실행 정확도에서도 3.7% 향상되어 최신 기술 수준(SOTA)을 달성하였다.