15일 전

지시사항 추측하기! 뒤집힌 학습이 언어 모델의 제로샷 학습 능력을 강화한다

Seonghyeon Ye, Doyoung Kim, Joel Jang, Joongbo Shin, Minjoon Seo
지시사항 추측하기! 뒤집힌 학습이 언어 모델의 제로샷 학습 능력을 강화한다
초록

메타학습(meta-training)은 태스크 지시문과 입력 예시를 바탕으로 목표 레이블의 가능도를 최대화함으로써 언어 모델(LM)을 다양한 하류 태스크에 맞게 미세조정하는 기법으로, 제로샷 태스크 일반화 성능을 향상시켰다. 그러나 메타학습된 LM은 메타학습 과정에서 볼 수 없었던 새로운 레이블을 포함한 어려운 태스크에 대해 여전히 일반화에 어려움을 겪는다. 본 논문에서는 이러한 문제를 해결하기 위해, 입력 예시와 레이블을 주었을 때 태스크 지시문을 생성하도록 언어 모델을 학습하는 새로운 메타학습 방법인 Flipped Learning을 제안한다. 추론 시, Flipped Learning으로 학습된 모델(이하 Flipped)은 주어진 입력 예시와 레이블에 대해 가장 태스크 지시문을 생성할 가능성이 높은 레이블을 선택한다. BIG-bench 벤치마크의 14개 태스크에서, 11B 규모의 Flipped는 제로샷 T0-11B보다 평균적으로 8.4% 포인트 높은 성능을 보이며, 16배 더 큰 3샷 GPT-3(175B)보다도 9.7% 포인트 높은 성능을 기록한다. 특히, 메타학습 과정에서 보이지 않은 레이블을 포함한 태스크에서는 Flipped가 T0-11B보다 평균 F1 스코어에서 최대 +20%까지 향상시키며 큰 성능 향상을 보인다. 이는 Flipped의 강력한 태스크 일반화 능력이 새로운 레이블에 대한 개선된 일반화에 기인함을 시사한다. 본 연구의 코드는 https://github.com/seonghyeonye/Flipped-Learning 에서 공개한다.

지시사항 추측하기! 뒤집힌 학습이 언어 모델의 제로샷 학습 능력을 강화한다 | 최신 연구 논문 | HyperAI초신경