2ヶ月前

Entailment as Few-Shot Learner 意味包含を少ショット学習者として

Sinong Wang; Han Fang; Madian Khabsa; Hanzi Mao; Hao Ma
Entailment as Few-Shot Learner
意味包含を少ショット学習者として
要約

大規模事前学習言語モデル(LMs)は、少量のサンプルで学習する能力を示すことで注目を集めています。しかし、これらのモデルの成功は、モデルパラメータを大幅にスケーリングすることに大きく依存しており、これにより訓練や提供が困難になっています。本論文では、EFLと名付けられた新しいアプローチを提案します。このアプローチの主なアイデアは、潜在的なNLPタスクを包含関係判定タスクに再定式化し、わずか8つの例を使用してモデルを微調整することです。さらに、提案手法が以下の点で優れていることを示します。(i) 監督なし対照的学習に基づくデータ拡張手法と自然に組み合わせられる;(ii) 多言語少量学習へ容易に拡張できる。18の標準的なNLPタスクに対する系統的な評価により、このアプローチが既存の最先端(SOTA)少量学習手法よりも12%向上し、GPT-3などの500倍大きなモデルと競合する少量学習性能を達成することが確認されました。