17일 전
RA-DIT: 검색 증강형 이중 지시 훈련
Xi Victoria Lin, Xilun Chen, Mingda Chen, Weijia Shi, Maria Lomeli, Rich James, Pedro Rodriguez, Jacob Kahn, Gergely Szilvasy, Mike Lewis, Luke Zettlemoyer, Scott Yih

초록
검색 증강 언어 모델(RALMs)은 외부 데이터 저장소로부터 장꼬리(long-tail) 및 최신 지식에 접근함으로써 성능을 향상시키지만, 구축이 어렵다. 기존의 접근 방식은 either 언어 모델(LM) 사전 학습에 비용이 많이 드는 검색 전용 수정을 필요로 하거나, 데이터 저장소를 사후(post-hoc) 통합하는 방식을 사용하는데, 이는 최적의 성능을 도출하지 못하게 한다. 우리는 어떤 대규모 언어 모델(LLM)에도 검색 기능을 보완할 수 있는 경량 미세 조정 방법인 검색 증강 이중 지시 미세 조정(RA-DIT)을 제안한다. 본 방법은 두 가지 별개의 미세 조정 단계를 거친다: (1) 사전 학습된 LM을 검색된 정보를 더 효과적으로 활용할 수 있도록 업데이트하고, (2) LM이 선호하는 방식으로 더 관련성 높은 결과를 반환하도록 검색기(retriever)를 업데이트한다. 지식 활용과 맥락 인식이 동시에 요구되는 작업에 대해 미세 조정을 수행함으로써, 각 단계에서 상당한 성능 향상이 발생함을 입증하였으며, 두 단계를 모두 사용할 경우 추가적인 성능 향상이 가능함을 보였다. 최고 성능을 기록한 RA-DIT 65B 모델은 지식 집약형 0-샷 및 소량 샷 학습 벤치마크 전반에서 최신 기준을 달성하였으며, 기존의 컨텍스트 내 RALM 접근 방식보다 0-샷 설정에서 평균 +8.9%, 5-샷 설정에서 평균 +1.4% 더 뛰어난 성능을 보였다.