
要約
ニューラルネットワークを基盤とする手法は、自然言語処理の様々なタスクにおいて大きな進歩を遂げています。しかし、これまでの多くの研究では、モデルが単一タスクの教師あり学習目標に基づいて学習されており、しばしば訓練データが不足しているという問題に直面しています。本論文では、マルチタスク学習フレームワークを使用して、複数の関連するタスク間で共同学習を行う方法を提案します。リカレントニューラルネットワークを基盤として、タスク固有層と共有層を持つ3つの異なる情報共有メカニズムを提案します。全ネットワークはこれらの全てのタスクに対して共同で訓練されます。4つのベンチマークテキスト分類タスクにおける実験結果から、我々が提案したモデルは他の関連するタスクの助けを得ることで特定のタスクの性能向上に寄与することが示されました。