17일 전

RA-DIT: 검색 증강형 이중 지시 훈련

Xi Victoria Lin, Xilun Chen, Mingda Chen, Weijia Shi, Maria Lomeli, Rich James, Pedro Rodriguez, Jacob Kahn, Gergely Szilvasy, Mike Lewis, Luke Zettlemoyer, Scott Yih
RA-DIT: 검색 증강형 이중 지시 훈련
초록

검색 증강 언어 모델(RALMs)은 외부 데이터 저장소로부터 장꼬리(long-tail) 및 최신 지식에 접근함으로써 성능을 향상시키지만, 구축이 어렵다. 기존의 접근 방식은 either 언어 모델(LM) 사전 학습에 비용이 많이 드는 검색 전용 수정을 필요로 하거나, 데이터 저장소를 사후(post-hoc) 통합하는 방식을 사용하는데, 이는 최적의 성능을 도출하지 못하게 한다. 우리는 어떤 대규모 언어 모델(LLM)에도 검색 기능을 보완할 수 있는 경량 미세 조정 방법인 검색 증강 이중 지시 미세 조정(RA-DIT)을 제안한다. 본 방법은 두 가지 별개의 미세 조정 단계를 거친다: (1) 사전 학습된 LM을 검색된 정보를 더 효과적으로 활용할 수 있도록 업데이트하고, (2) LM이 선호하는 방식으로 더 관련성 높은 결과를 반환하도록 검색기(retriever)를 업데이트한다. 지식 활용과 맥락 인식이 동시에 요구되는 작업에 대해 미세 조정을 수행함으로써, 각 단계에서 상당한 성능 향상이 발생함을 입증하였으며, 두 단계를 모두 사용할 경우 추가적인 성능 향상이 가능함을 보였다. 최고 성능을 기록한 RA-DIT 65B 모델은 지식 집약형 0-샷 및 소량 샷 학습 벤치마크 전반에서 최신 기준을 달성하였으며, 기존의 컨텍스트 내 RALM 접근 방식보다 0-샷 설정에서 평균 +8.9%, 5-샷 설정에서 평균 +1.4% 더 뛰어난 성능을 보였다.