
要約
対話型機械の利用が拡大する中で、会話中の感情認識(Emotion Recognition in Conversation: ERC)の重要性が高まっている。機械が生成する文に感情を反映させることで、より人間らしい共感的な会話が可能となる。感情認識において、前の発話内容を無視すると精度が低下するため、多くの研究では対話の文脈を考慮することで性能の向上を図っている。近年の多くのアプローチでは、外部の構造化データから学習したモジュールに知識を組み込むことで性能の向上が実現されている。しかし、構造化データは英語以外の言語では入手が困難であり、多言語への拡張が困難である。そこで本研究では、事前学習済み言語モデルを外部知識の抽出器として用い、事前学習済みメモリを抽出する手法を提案する。さらに、発話者に固有の事前学習済みメモリと文脈モデルを統合する手法「CoMPM(Contextual Memory with Pre-trained Memory)」を導入し、事前学習済みメモリが文脈モデルの性能を顕著に向上させることを実証した。CoMPMはすべてのデータセットにおいて首位または2位の性能を達成し、構造化データを活用しないシステムの中では最先端の性能を示している。また、本手法は構造化知識を必要としないため、従来の手法とは異なり、他の言語への拡張が可能であることが示された。本研究のコードはGitHubにて公開されている(https://github.com/rungjoo/CoMPM)。