
要約
会話における感情認識は、自己および他者間の影響によって支配される文脈依存性が存在するため、困難なタスクである。近年のアプローチは、これらの依存関係を主に教師あり学習によってモデル化することに注力している。しかし、純粋な教師あり学習手法は大量のアノテーション付きデータを必要とし、このタスクにおいては多くのコーパスでそのようなデータが不足している。この課題に対処するため、我々は転移学習アプローチを有効な代替手段として検討する。大量の利用可能な会話データを考慮すると、生成型会話モデルが文脈における感情検出に向けた感情的知識を転移できるかどうかを検証する。本研究では、TL-ERCという手法を提案する。この手法は、複数ターンの会話データ(ソース)上で階層的対話モデルを事前学習し、そのパラメータを会話感情分類器(ターゲット)に転移するものである。既存の事前学習された文書エンコーダーを用いるという一般的な手法に加え、本手法は会話全体にわたる文間文脈をモデル化する再帰的パラメータも組み込む。このアイデアに基づき、複数のデータセット上で実験を実施した結果、限定的な訓練データに対する性能およびロバスト性の向上が確認された。また、TL-ERCははるかに少ないエポック数でより優れた検証性能を達成した。総合的に見て、生成モデルから得られる知識が会話における感情認識に実際に役立つことが示唆された。