
要約
自然言語処理は、文法、意味論、情報内容の予測を含む多様なタスクをカバーしており、通常各出力タイプは特別に設計されたアーキテクチャで生成される。本論文では、多くのタスクがスパンのラベリングとスパン間の関係の単一統合形式で表現できることという単純な洞察を提供し、異なるタスクに対して単一のタスク非依存モデルを使用できることが示される。私たちは10種類の異なるタスク(従属関係解析(文法)、意味役割ラベリング(意味論)、関係抽出(情報内容)、感情分析に基づく観点分析(感情)など)に対してこの洞察を検証するための広範な実験を行った。その結果、最先端の専門化モデルと同等の性能が得られた。さらに、マルチタスク学習の利点も示し、提案手法がモデルが異なるタスクを処理する際の違いや類似性を分析しやすくすることも確認した。最後に、これらのデータセットを単一統合形式に変換してベンチマークを作成し、将来の一般化された自然言語解析モデル評価用の包括的なテストベッドを提供した。注:「スパン」は自然言語処理において一般的に使用される用語であり、「span」を指します。「観点分析」は「aspect-based sentiment analysis」に対応する日本語表現です。