
要約
マルチタスク学習(MTL)は関連する複数のタスクを効果的に学習するための有力な手法であるが、MTLモデルの設計には、タスク固有のパラメータとタスク間で共有するパラメータの数およびその配置を決定する必要がある。本研究では、固有表現抽出(NER)と関係抽出(RE)を同時に学習する問題に対してこの課題を検討し、従来の手法よりもより深いタスク固有性を実現できる新しいニューラルアーキテクチャを提案する。具体的には、NERおよびREの両タスクに対して追加のタスク固有の双方向RNN層を導入し、異なるデータセットに対して共有層とタスク固有層の数を別々に最適化する。ADEデータセットにおいて、両タスクで最先端(SOTA)の性能を達成した。また、CoNLL04データセットではNERタスクでSOTAを達成し、REタスクでも競争力ある結果を示した一方で、現在のSOTAアーキテクチャと比較して学習可能なパラメータ数が1桁以上少ない。アブレーションスタディにより、追加のタスク固有層がこれらの成果を達成する上で重要であることが確認された。本研究は、従来のNERとREの共同学習アプローチがタスク固有性を過小評価している可能性を示し、一般的なMTLアプローチにおいて、共有パラメータとタスク固有パラメータのバランスを適切に調整することが極めて重要であることを示している。