15日前

推論指令を予測せよ!逆転学習が言語モデルのゼロショット学習能力を強化する

Seonghyeon Ye, Doyoung Kim, Joel Jang, Joongbo Shin, Minjoon Seo
推論指令を予測せよ!逆転学習が言語モデルのゼロショット学習能力を強化する
要約

メタトレーニングは、タスクの指示と入力インスタンスを条件とした場合にターゲットラベルの尤度を最大化することで、言語モデル(LM)をさまざまなダウンストリームタスクに微調整する手法であり、ゼロショットタスク一般化性能の向上に寄与している。しかし、メタトレーニング済みのLMは、メタトレーニング中に観測されていない新しいラベルを含む困難なタスクへの一般化には依然として課題を抱えている。本論文では、メタトレーニングの代替手法として「フリップドラーニング(Flipped Learning)」を提案する。この手法は、入力インスタンスとラベルを条件としてタスクの指示を生成するようにLMを学習させる。推論時には、フリップドラーニングで訓練されたLM(以下、Flipped)は、最もタスクの指示を生成しやすいラベル選択を行う。BIG-benchベンチマークの14のタスクにおいて、110億パラメータ規模のFlippedは、ゼロショットのT0-11Bよりも平均で8.4ポイント、さらに16倍大きい3ショットのGPT-3(1750億パラメータ)よりも平均で9.7ポイント優れている。特に、トレーニング中に見られなかったラベルを含むタスクにおいて、FlippedはT0-11Bよりも最大で平均F1スコアで+20%の大幅な向上を達成した。これは、Flippedの優れたタスク一般化性能が、新規ラベルへの一般化能力の向上に起因していることを示している。本研究のコードは、https://github.com/seonghyeonye/Flipped-Learning にて公開している。

推論指令を予測せよ!逆転学習が言語モデルのゼロショット学習能力を強化する | 最新論文 | HyperAI超神経