2ヶ月前

普遍的な言語モデルのファインチューニングによるテキスト分類

Jeremy Howard; Sebastian Ruder
普遍的な言語モデルのファインチューニングによるテキスト分類
要約

誘導転移学習はコンピュータビジョンに大きな影響を与えましたが、NLP(自然言語処理)における既存のアプローチはまだタスク固有の修正とゼロから学習する必要がありました。本研究では、Universal Language Model Fine-tuning (ULMFiT)という効果的な転移学習手法を提案し、言語モデルのファインチューニングに不可欠な技術を紹介します。当手法は6つのテキスト分類タスクにおいて現行の最先端技術を大幅に上回り、大部分のデータセットで誤差を18-24%削減しました。さらに、わずか100件のラベル付きサンプルを使用するだけで、100倍多いデータでのゼロからの学習と同等の性能を達成しています。我々は事前学習済みモデルとコードをオープンソース化しました。

普遍的な言語モデルのファインチューニングによるテキスト分類 | 最新論文 | HyperAI超神経